044998 ランダム
 HOME | DIARY | PROFILE 【フォローする】 【ログイン】

One of my favorite things is ...

全282件 (282件中 51-60件目)

< 1 2 3 4 5 6 7 8 9 10 11 ... 29 >

2019.09.11
XML
カテゴリ:家電・ガジェット


 iPhone11 supports Dolby Atmos. The new 10.2-inch iPad is Dolby Digital Plus compatible.
 
However, the problem is that there is no Dolby Digital Plus or Dolby Atmos content for iPhone or iPad. Content distributed in ordinary 2ch stereo will not be heard by Dolby Digital Plus or Dolby Atmos.

Supplied audio content must be distributed by Dolby Digital Plus or Dolby Atmos.

In order to make use of specifications such as “Dolby Atmos compatible” and “Dolby Digital Plus compatible”, content distribution companies also want to distribute “Dolby Atmos” and “Dolby Digital Plus” content to mobile devices.

 Does the video distribution service “Apple TV+” support Dolby Atmos distribution?

The Apple TV+  starting in November has the word “4K HDR and Dolby Atmos” on its web site, so Dolby Atmos and Dolby Digital Plus content may be distributed for iOS and iPad OS. 

Since Apple are making “ Dolby Atmos ”compatible devices,I think that Apple  is possible to distribute content corresponding to them.

I would like to expect Apple will distribute Dolby Atmos and Dolby Digital Plus contents for iOS and iPad OS , because Apple makes all of the hardware, apps, and contents.
 
But, “4K HDR and Dolby Atmos” may be limited to “Apple TV ”.

By the way, there is the word “Spatial Audio playback” on iPhone 11, but is it for VR content?  I am interested in detailed information.


iPhone11
Audio Playback
Audio formats supported: AAC‑LC, HE‑AAC, HE‑AAC v2, Protected AAC, MP3, Linear PCM, Apple Lossless, FLAC, Dolby Digital (AC‑3), Dolby Digital Plus (E‑AC‑3), Dolby Atmos, and Audible (formats 2, 3, 4, Audible Enhanced Audio, AAX, and AAX+)
Spatial audio playback


New iPad
Audio Playback
Audio formats supported: AAC (8 to 320 Kbps), Protected AAC (from iTunes Store), HE-AAC, MP3 (8 to 320 Kbps), MP3 VBR, Dolby Digital (AC-3), Dolby Digital Plus (E-AC-3), Audible (formats 2, 3, 4, Audible Enhanced Audio, AAX, and AAX+), Apple Lossless, AIFF, and WAV










Last updated  2019.09.13 17:22:18
コメント(0) | コメントを書く
カテゴリ:データ分析
​​​​ NASAのNEOデータの可視化の試みとして、「R」でアニメーショングラフを作成してみました。

 なお、データは、NASAのサイト(https://cneos.jpl.nasa.gov/ca/)からダウンロードしています。


 以前作成したアニメーションGIFのグラフは、年別のグラフ画像のファイルを1個ずつ保存して、それらの複数の画像ファイルをアニメーションGIF作成ツールを利用して一体化していました。

 「R」のパッケージ「gganimate」を利用すれば、アニメーショングラフを簡単に作成できます。ただ、「gganimate」のパッケージをインストールする際に少しつまずいてしまいました。

 
「gganimate」には、同じ名前で、古いものと新しいものがあり、とても紛らわしいことになっています。名前を変えて区別できるようにしてほしかったです。

 コードも旧版と新版で異なるのですが、ネットの情報が旧版のものなのか、新版のものなのか、区別が難しくて困ります。

 とりあえず、古い方のインストールが難しそうだったので、新しい方の「gganimate」をインストールしました。

devtools::install_github('https://github.com/thomasp85/gganimate/releases/tag/v1.0.3')


 「gganimate」を利用すると、グラフを作成した時点で、アニメーションGIFの作成が終了することになるので、かなり、作業を効率化することができます。

 最初、
「gganimate」でアニメーショングラフを作成した時、すぐには何も表示されなかったので、PCがフリーズしたと思ってしまいましたが、グラフ作成(レンダリング)が終了するまで時間がかかるようです。パソコンのスペックによると思いますが、下のグラフだと1分程度かかりました。


▼1LD以下の距離にまで接近した小惑星(Asteroid)のグラフです。「年」の変数で動くようにしています(図の左上に「年」の表示があります)。
 2008年から2019年8月までのデータです。


 図の左側が「地球に近い」ということになります。左上に現れる点は、「地球の近くまで接近した大きな小惑星」ということになります。
 
 地球と月の間の距離「1LD」以下の距離まで接近する小惑星が多いことを感じることができると思います。

 日常的に、小惑星が地球の近くを飛行していることをイメージできるのではないかと思います。


 グラフの横軸:地球との距離、グラフの縦軸と円の大きさ:小惑星の大きさ(推定の上限値)、円の色は月別




▼1LD以下の距離にまで接近した小惑星(Asteroid)の年別のファセットグラフ(静止画)です。2008年から2019年8月までのデータです。

 「2019 OK」はファセットグラフの右下に表示されています。約0.2LDの距離で、130mの大きさのものが、
「2019 OK」です。
 グラフは、2008年からのものですが、この距離まで接近した小惑星で、
「2019 OK」より大きいものは見当たりません。


 グラフの横軸:地球との距離、グラフの縦軸と円の大きさ:小惑星の大きさ(推定の上限値)、円の色は月別




▼これは、1LD以下の距離にまで接近した小惑星(Asteroid)のアニメーショングラフです。「月」の変数で動くようにしています。スピードは落としています。

 今年の7月は、例年より多くの、しかも大きめの小惑星が地球に接近していたようです。


 グラフの横軸:地球との距離、グラフの縦軸と円の大きさ:小惑星の大きさ(推定の上限値)




▼「R」のコード例:一番上のアニメーショングラフのコードです


 普通に散布図を作って、動かすコード「transition_time()」を追加するだけです。
 最後の行の「animate(movy)」を単に「movy」としても作成されますが、
「animate(movy, fps=1)」というように、「fps=数字」を追加して速度を調整することができます。

----------------------------------------------------------
p <- ggplot(data1,aes(x = Dn_ld, y = size_high, size = size_high, colour = month)) +
  geom_point(show.legend = FALSE, alpha = 0.7) +
  scale_color_viridis_d() +
  scale_size(range = c(2, 12)) +
  labs(x = "Distance(LD)", y = "Estimated Size(m)")

movy <- p + transition_time(year_d)  +
  ease_aes("linear") +
  enter_fade() +
  exit_fade() +
  labs(title = "Year: {frame_time}")
animate(movy, width = 700, height = 450)
anim_save("asteroid.gif")
-----------------------------------------------------------

 
☆関連記事
▼NASAのNEOデータ分析のための前処理は、まずExcelのPower Queryで処理をし、必要に応じて「R」のコードを利用するのが効率的だと思います

▼NASAのNEOデータを、Power Queryで前処理してみました:コードを使わずに前処理が可能です

▼NASAのNEO(地球に接近した小惑星)のデータの分析:データを「R言語」で前処理するコード:データを随時更新する場合は、繰り返し作業を「コード化」するのが一番です 

▼8月21日放送のフジテレビ「とくダネ!」で「直径160mの小惑星が今月末に最接近」という話題がありましたが、地球にはあまり接近しないようです

▼地球に接近したNEOの日別の個数をMicrosoft Power BIで表示してみました

▼【平均値の差の検定をしてみました】地球に接近する小惑星の数の10月と8月の平均値には、統計的に有意な差が見られます

▼地球に接近する小惑星の数が多いのは10月頃?。少ないのは8月?:月別にかなり違いが見られます:Microsoft Power BI Desktopは、無料で利用できる、インタラクティブなインフォグラフィック作成ツールです


▼データ前処理の例(その2):Microsoft Power BI用データを準備するための処理の例:NASAのNEOデータをダウンロードし、英語の月名を含む日付の文字列を日付データに変換して、Power BIに読み込む

▼Microsoft Power BI用データを準備するための前処理の例です:NASAのNEOデータをダウンロードし、小惑星の大きさの推定値をExcelで取り出し、単位変換して、Power BIに読み込む

▼地球をかすめた小惑星「2019 OK」は、0.2LD以下の距離に接近したNEOの中で過去最大だったようです:NASAの1万3千件以上のNEOデータから

▼小惑星「2019 OK」は、過去3年間に0.2LD以下まで地球に接近したNEOの中でも最大でした:NASAのNEOデータをPower BIで分析してみました

▼【グラフを追加しました】:小惑星「2019 OK」はOKでしたが・・・:7月25日に地球とニアミスした、今年最大の小惑星の名前です。




[商品価格に関しましては、リンクが作成された時点と現時点で情報が変更されている場合がございます。]

Rではじめるデータサイエンス [ Hadley Wickham ]
価格:4320円(税込、送料無料) (2019/9/14時点)


 



​​​​






Last updated  2019.10.09 07:21:13
コメント(0) | コメントを書く
カテゴリ:家電・ガジェット
​​


 iPhone11は、Dolby Atmos対応です。新しい10.2インチiPadは、Dolby Digital Plus対応です。

 しかし、問題は、iPhoneやiPad向けのDolby Digital PlusやDolby Atmosのコンテンツがないということです。普通の2chステレオで配信されているコンテンツがDolby Digital Plus、Dolby Atmosの聴こえ方になることはありません。

 現状では、iTunes Storeのコンテンツも、スマホやタブレットなどのモバイル端末向けではDolby Atmosの音声に対応していません。
 iOSの13.1へのアップデート後も状況は変わっていません。

 なお、最近のMacは
iTunesのDolby Atmosの音声に対応しているようです。
Dolby Atmos is available on Mac notebooks introduced in 2018 or later.

 iTunes Storeは、Dolby Atmos対応のiPhone11向けに対応コンテンツを用意するのかどうか、iPhone11発売後にiTunes Storeの表記がどう変更されるのか注目したいと思います。
 
 
iTunes Storeでは、Apple TV 4Kしか、Dolby Atmosの音声に対応していません。それに、Apple TV 4KがDolby Atmosに対応していると言っても、Dolby Atmos対応のスピーカーシステムに音声データを渡すだけのことです。

 Netflix(ネットフリックス)もアマゾン・プライム・ビデオも、iOSのスマホやタブレット向けに、
Dolby Digital PlusやDolby Atmosの音声を配信していません。

 アマゾン・プライム・ビデオは、アンドロイド端末向けに5.1ch音声、Dolby Atmos 音声を配信するようになっています。

 iPhoneの「Dolby Atmos対応」という機能を活かすには、配信元がDolby Digital PlusやDolby Atmosの音声のコンテンツを配信する必要があります。
 「Dolby Atmos対応」「Dolby Digital Plus対応」といったスペックが生かせるように、コンテンツ配信企業も、モバイル端末向けに「Dolby Atmos」「Dolby Digital Plus」のコンテンツを配信してほしいと思います。

▼動画配信サービス「Apple TV+」は、Dolby Atmos配信対応?
 11月に始まる、Apple TV+のページには、「4K HDRとDolby Atmos。」という言葉があるので、iOSやiPad OS向けにDolby Atmos、Dolby Digital Plusのコンテンツが配信される可能性があるかもしれません。

 あと、iPhone11で「空間オーディオ(Spatial Audio)再生」という言葉がありますが、VRコンテンツ向けのものでしょうか。詳細情報が気になります。

 アップルは、「Dolby Atmos」対応端末を作っているのですから、それに対応するコンテンツを配信することはあり得ると思います。

 ハードウェアとアプリ、コンテンツのすべてを作っているアップルに期待したいところです。

 しかし、「4K HDRとDolby Atmos。」は、「Apple TV端末」限定ということも十分にあり得ます。

 アップルイベントのビデオを見ましたが、
iPhone11やiPhone11 Proで「Dolby Atmos」について言及する場面で、Apple TV+の映画やドラマのコンテンツは表示されていないようでした。少なくとも、Apple TV+に言及している様子はありませんでした。プレゼンターの説明も「Dolby Atmos」については歯切れが悪いという印象を持ちました。

 
iPhone11などで「Dolby Atmos」の映画やドラマを楽しめるのであれば、Apple TV+という新サービスを始めるアップルが、そのことを強くアピールしないというのは不自然です。やはり、モバイル端末では「Dolby Atmos」の映画やドラマは楽しめないのかもしれません。
 
 iPhone11のゲームの紹介のところで、ゲームメーカーの人から「空間オーディオ(Spatial Audio)」や「Dolby Atmos」について言及があったので、iPhoneの「空間オーディオ(Spatial Audio)」や「Dolby Atmos」は、ゲーム向けとして想定されているのかもしれません。Windows Sonic for Headphonesも始まりはゲーム向けのようです。

 ということは、やはり
Apple TV+での「4K HDRとDolby Atmos。」は、「Apple TV端末」限定という可能性が高いような気がします。
 なお、「HDR」については、すでにiTunes StoreやNetflixが一部のiPadやiPhone向けにコンテンツを配信しています。


▼iPhone11
オーディオ再生
対応するオーディオフォーマット:AAC‑LC、HE‑AAC、HE‑AAC v2、保護されたAAC、MP3、Linear PCM、Apple Lossless、FLAC、Dolby Digital(AC‑3)、Dolby Digital Plus(E‑AC‑3)、Dolby Atmos、Audible(フォーマット2、3、4、Audible Enhanced Audio、AAX、AAX+)
空間オーディオ再生
ユーザーによる設定が可能な最大音量制限


▼新しい10.2インチiPad
オーディオ再生
対応するオーディオフォーマット:AAC(8〜320Kbps)、保護されたAAC(iTunes Storeから購入したコンテンツ)、HE-AAC、MP3(8〜320Kbps)、MP3 VBR、Dolby Digital(AC-3)、Dolby Digital Plus(E-AC-3)、Audible(フォーマット2、3、4、Audible Enhanced Audio、AAX、AAX+)、Apple Lossless、AIFF、WAV
ユーザーによる設定が可能な最大音量制限


☆関連記事
◆Antutuスコアから見たiOS端末の「コスパ感」:「iPad mini 5」「iPad Air 3」などの価格性能比は高いようです

▼新型iPhoneの発表時期が近づいてきましたが、新型iPhoneがDolby Atmos対応であることは間違いありません

◆Windowsパソコンで、Netflixを観る時に、Windows Sonic for HeadphonesやDolby Atmos for Headphonesをオンにする理由:「Amaze」トレーラーの録音データの分析から:Reasons to turn on Windows Sonic

◆How Windows Sonic looks like.​​:Windows Sonic for Headphonesの音声と2chステレオ音声の比較:7.1.2chテストトーンの比較で明らかになった違い:一目で違いがわかりました



​​​ヘッドホンのイヤーパッドが劣化したらこのカバーが役立ちます







Last updated  2019.10.19 07:51:20
コメント(0) | コメントを書く
2019.09.10
カテゴリ:データ分析
​​ 楽天市場の商品レビューの分析ですが、「R言語」のコードで半自動化できるかどうかを検証しています。

 一応、スクレイピングと簡単な棒グラフなどの「R」のコードは整備できてきました。

 次に目指すのは、テキストマイニングの部分です。現在は、ユーザーローカルさんのテキストマイニングツールやKH Coder、Power BIを利用していますが、「R」のパッケージにもテキストマイニングツールがあるので、「R」だけでかなり多くの分析ができるのではないかと思います。

 スクレイピングからテキストマイニングまで一気通貫にできれば、非常に楽ですし、コードが正確であるということが前提ですが、人手の作業によるミスを排除できるので、より正確な分析が可能になります。


▼ワードクラウドを作成できるようにするために、MeCabとRMeCabをインストール


 まだ、テキストマイニング用のコードの整備を始めたばかりですが、早速、MeCabの辞書のコンパイルでつまづいてしまいました。

 MeCabのデフォルトの辞書では、「!」「”」といった記号が「サ変接続の名詞」として登録されています。

 「サ変接続の名詞」とは何でしょう。例えば「購入」のように、「した」とか「する」に接続するのが、「サ変接続の名詞」です。

 レビュー本文のスクレイピングデータ中の「名詞」をワードクラウドの対象にした場合、「”」の数が多かったので、巨大な「”」が出現してしまいました。
 
 「”」などの記号をRのコードで削除するという対処方法もありますが、処理の自動化とはかけ離れてしまいます。

 根本的に対処するためには、辞書を修正する必要があります。

 ネットで調べて、MeCabをインストールしたフォルダにある「unk.def」というファイルを修正して、上書きして、辞書を再設定すればいいことがわかりました。
 
 「unk.def」をテキストエディターで開き、
 「SYMBOL,1283,1283,17585,名詞,サ変接続,*,*,*,*,*」という部分を、下記と置き換えます。
 「SYMBOL,1283,1283,17585,記号,一般,*,*,*,*,*」に置き換えて、保存します。

 ファイルの保存ですが、そのまま保存できなかったので、一度、デスクトップに保存して、その保存したものを元のフォルダに移動させました。  

 辞書の再設定は、コマンドプロンプトでの操作もしてみましたが、最終的には、「ipadic」フォルダに「bin」フォルダ内の「mecab-dict-index.exe」と「libmecab.dll」をコピーして、「ipadic」フォルダの中で「mecab-dict-index.exe」を右クリックから実行しました。

 最初試していたコマンドプロンプトでの操作でも、「ipadic」フォルダに「bin」フォルダ内の「mecab-dict-index.exe」と「libmecab.dll」をコピーして、コマンドプロンプトで「cd」で、「ipadic」フォルダにディレクトリを変更してから、「mecab-dict-index.exe」を実行していました。

 この場合、オプション設定の仕方がよくわからないので、単に「mecab-dict-index.exe」を実行しただけです。
 「bin」フォルダにディレクトリ変更して、「mecab-dict-index.exe」と「ipadic」フォルダへのパスを記して実行よりも手っ取り早いと思ったからです。

 コマンドプロンプトで辞書の再設定をした段階で、MeCabでは、「!」「”」などの品詞が「記号」になりました。

 しかし、「R Studio」のR MarkdownのRMeCabでは、「!」「”」の品詞は「名詞」のままです。何度繰り返しても、「すももも””!!」とか、解析対象テキストを変更してみても、パソコンを再起動しても、RMeCabでは「!」「”」などの品詞は「名詞」のままです。一方、MeCabのアプリでは、「!」「”」などの品詞は「記号」となっています。

 ???

 RMeCabは、MeCabの解析結果をRで利用できるようにしているはずなので、MeCabの結果がRMeCabに反映されないというのは、とても不思議な現象でした。

 結局、RMeCabでもうまくいくようになったのですが、「ipadic」フォルダに「bin」フォルダ内の「mecab-dict-index.exe」と「libmecab.dll」をコピーして、「ipadic」フォルダの中で「mecab-dict-index.exe」を右クリックから実行した後でうまくいくようになったようなので、コマンドプロンプトからの辞書の再設定がうまくいっていなかったのかもしれません。

 でも、その前の段階でもMeCabのアプリでは、「!」「”」などの品詞が「記号」となっていたので、RMeCabがMeCabの再設定前の辞書ファイルにアクセスしていた、ということなのではないかと考えます。

 そもそも、「!」「”」などの品詞を「サ変接続の名詞」として設定しているMeCabの辞書のデフォルト設定に問題があるようですが、これはMeCabの作者からのメッセージであり、ユーザーに与えた課題でもあり、「それくらいは変更できるようになりなさい」ということなのだと思います。

 確かに、この問題を解決するためにいろいろと調べたので、MeCabの辞書ファイルのあり方が何となくわかったような気がします。一瞬ですが、ユーザー辞書を追加してみよう、という気持ちになったりもしました。

 なお、2台目のパソコン(Windows8.1)にも同様の設定をしましたが、コマンドプロンプトは全く使いませんでした。

 「ipadic」フォルダの「unk.def」というファイルを修正してから、「ipadic」フォルダに「bin」フォルダ内の「mecab-dict-index.exe」と「libmecab.dll」をコピーして、「ipadic」フォルダの中で「mecab-dict-index.exe」を右クリックから実行しました。その結果、すぐにRMeCabにも変更が反映されました。

 1台目のパソコン(Windows10)では、手こずりましたが、2台目は非常にスムーズでした。パソコンの環境も何か影響していたのかもしれません。


▼ワードクラウドの作成

 スクレイピングで得られるデータでは、「☆の数」は4か5しかないので、☆の数別のワードクラウドを作っても仕方がありません。

 そこで、「購入した回数」の「はじめて」と「リピート」でワードクラウドを作成しようと思います。

 MeCabの辞書の再設定で疲れ果てたので、一応、ワードクラウドができることを確認するまでにとどめます。

 ワードクラウドのディテールの設定などは後日にしたいと思います。​​​


 先日、スクレイピングしたメンズ・ボトムスのレビューの本文中の「名詞」と「形容詞」を対象にワードクラウドを作成しました。


▼「購入した回数」別:「リピート」の人のレビュー本文のワードクラウド



▼「購入した回数」別:「はじめて」の人のレビュー本文のワードクラウド



☆関連記事​
▼楽天市場ランキング上位のメンズ・ボトムスの商品レビューの分析をしました:「R言語」によるスクレイピング

▼楽天市場のランキング上位の「zootie:エアパンツ」の商品レビューをテキストマイニングしてみました:「ファッションジャンル商品対応版のRコード」でスクレイピング

▼【再改訂版コード】:「R言語」による楽天市場の商品レビューのスクレイピングコードの再改訂版:グラフ作成コードなどを追加:「素焼きアーモンド」の商品レビューのデータを取得:意外と多い「はじめて」の購入

▼「R言語」による楽天市場の商品レビューのスクレイピングコードの改訂版です:Excelで項目を切り分ける作業が不要になりました

▼楽天市場の
特定の商品のレビューを「R言語」でスクレイピングするコード:一部の項目の空欄・欠損値(missing values)を「NA」に置き換えてデータフレームを作成:継ぎはぎのコードですが・・・


▼JPRiDEの新モデル・完全ワイヤレスイヤホン「JPRiDE TWS-520」のアマゾン・カスタマーレビューのテキストを分析

▼「JPRiDE」ブランドのワイヤレスイヤホン「JPRiDE 708」の楽天市場のレビューのテキストを分析:ReviewMetaでアマゾンのカスタマーレビューの信頼性の高さを推定できるJPRiDEの製品​​

▼雑誌など第3者の高評価をアピールしている「JPRiDE(ジェイピー・ライド)」ブランドのワイヤレスイヤホン「JPA2」の楽天市場のレビューのテキスト分析です


▼JVCケンウッドの高評価イヤホン「HA-FX3X」とソニーの「MDR-EX450」のカスタマーレビューを比較

▼3000円クラスの高評価イヤホン「HA-FX3​のカスタマーレビューのテキスト分析を「User Local」の「AIテキストマイニング」で行ってみました:こんな分析ツールがあったとは、驚きです

▼カスタマーレビュー分析で、Microsoft Power BIの「Word Cloud」とスライサーの組み合わせは便利です:3000円クラスで、高評価のイヤホン「HA-FX3X」のカスタマーレビューのテキスト分析

▼アマゾンのカスタマーレビューを購入の判断材料にする場合、「ReviewMeta」(レビューメータ)によるチェックが役立ちます


​▼先日購入したイヤホン「HA-FX3X」のアマゾン・カスタマーレビュー分析:低音の良さ、コスパなどが高評価の理由のようです​:3000円クラスで、高評価のイヤホンです​




[商品価格に関しましては、リンクが作成された時点と現時点で情報が変更されている場合がございます。]

Rではじめるデータサイエンス [ Hadley Wickham ]
価格:4320円(税込、送料無料) (2019/9/14時点)









Last updated  2019.10.09 07:21:49
コメント(0) | コメントを書く
2019.09.09
カテゴリ:家電・ガジェット
​​ 残念なのは、日本のデジタル放送方式は世界の中では少数派だということです。

 海外にすぐれたレコーダーがあっても、放送方式の異なる海外のレコーダーを日本で使うことはできません。

 米国では、「cord-cutters」という言葉が流行していますが、月額約80ドルと言われるCATVや有料衛星放送を解約する動きが広がっているようです。

 「コード・カット」の背景には、Netflixなどの動画配信サービスの利用や地上波放送の利用などがあるようです。

 over the air(地上波放送)を録画する最近のDVRは、レコーダー機能に加えて、録画番組・放送番組配信機能を備えていて、テレビ視聴の利便性を高めています。

 米国では、まさに、ソニーが出荷終了したnasne(ナスネ)のような「over-the-air DVR」機器の新製品が、「cord-cutters」向けということで、続々と登場しています。

 CATVや有料衛星放送では、再放送が多くあって便利だったりしますが、地上波放送をDVRに録画して、いつでもどこでも見られる方がずっと便利です。

 CATVや有料衛星放送の代替として、録画機能のないテレビチューナーではなく、DVRが注目されているのは、録画機能が「再放送」や動画配信サービスの代わりになるようなところがあるからかもしれません。

▼最近のDVRの特徴は、まさにnasneのようなマルチデバイス、ロケフリでの視聴機能です

 例えば、「Tablo QUAD OTA DVR」というDVRがありますが、nasneと同じネットワークレコーダーのジャンルの機器で、接続端子は、アンテナ端子、LAN端子、USB端子で、HDMI端子はありません。名前の通り、地上波放送の4チャンネル同時録画ができます。定価は「$199.99 USD」ということで、4チャンネル同時録画機能を考えると、リーズナブルな価格だと思います。

 「Tablo QUAD OTA DVR」は、USBハードディスクに録画して、パソコン、スマホ、タブレット、スマートテレビ、ストリーミングメディアプレーヤー端末(Fire TV Stickなど)で視聴する形です。




 4チャンネル同時録画可能なDVRは、日本ではパナソニックのブルーレイレコーダーの「おうちクラウドディーガ DMR-2G300・DMR-2CG300」くらいしかなさそうです。

 「おうちクラウドディーガ DMR-2G300・DMR-2CG300」は、6番組同時録画ができます。問題は、価格で、現在だと9万円前後のようです。機能は充実していますが、少々高い感じがします。
 
 nasneで6番組同時録画を実現したり、録画サーバーパソコンで6番組同時録画できるものを組むよりも安かったりするとは思いますが。
 
 Makuakeの「10チャンネル同時録画チューナー」を使えば、9万円以下で10番組同時録画サーバーパソコンを組むことも可能かもしれません。でも、ふだんは、そんなに多くの番組を同時録画することはまずありません。

 別の方法として、IODATAの「テレキング GV-NTX2」が4台あれば、8番組同時録画が可能です。接続するHDDの価格次第ですが、8番組同時録画できる「テレキング GV-NTX2」4台は、6番組同時録画の「おうちクラウドディーガ」よりも安くなると思います。

 ただ、アンテナ線のスパゲッティ状態を想像すると、4台も設置したくはないです。せいぜい、2台か3台まででしょう。


nasneと同じコンセプトのネットワークチューナーです。
USBハードディスクを接続して録画します。



 「Tablo QUAD OTA DVR」を2台設置すれば、約5万円で8番組同時録画環境が構築できますが、チューナーの仕様が異なるという根源的な問題があり、日本では使えません。

 一消費者としては、世界の多様な機器を利用できるので、日本の放送方式も世界の多数派の放送方式と同じ方がよかったと思います。


 
​☆関連記事​​
▼PlexメディアサーバーにDVRを接続して、Plexでテレビ番組をnasneのように視聴できたらいいのに:米国などでは簡単にできますが、日本ではできません

▼PlexメディアサーバーをサーバーPCにインストールして運用を試す:OneDriveで、CDからのリッピングファイル、動画ファイルを利用​​

▼ソニーが出荷を終了する「nasne」と同じコンセプトの「Fire TV Recast」を販売し始めた米国アマゾン​​

▼SONY「nasne(ナスネ)」後継機の予想:可能性「0.01%」として「PlayStation  Vue in Japan」を予想:99.99%はなさそう

ソニーの「nasne(ナスネ)」後継機の本命は、ソニーのブルーレイレコーダー。対抗は、パナソニックの「おうちクラウドDIGA(ディーガ)」?​​



 ​​






Last updated  2019.09.09 15:09:46
コメント(0) | コメントを書く
2019.09.08
カテゴリ:データ分析
​​​​​​​​
 ​楽天市場ランキング上位のメンズ・ボトムス、MONO-MARTの「チノパンツ」の商品レビューの分析をしました。レビュー数は、4600件を超えていますが、今回はスクレイピング可能な1500件のうち375件のレビューデータを取得しました(ページ送りのステップ数を4に設定)。​

 「はきやすさ」「はき心地」「値段」が評価されているようです。


バリエーションが豊富です


 今回スクレイピングした375件で、「購入した回数」が「はじめて」というレビューが177件となっていて、「リピート」の61件よりも多くなっています。


▼レビュー(375件)の性・年代別件数

 40代と50代が、レビュー投稿者の中心になっています。




▼「購入した回数」

 「はじめて」が177件と多くなっています。


▼レビューの日別推移

 レビュー投稿の時期は、春、秋がやや多いようです。



▼レビュー件数の月別推移
 
 スクレイピングしたレビューには、2013年のものも含まれていました。



▼レビューの見出し:「はじめて」購入した人

 「はきやすさ」「はき心地」「価格」などが評価されています。




▼レビューの見出し:「リピート」購入した人




◆今回の「R言語」でのスクレイピングコード:ファッション商品(ボトムス)用
----------------------------------------------------------------------------
library(pipeR)
library(textreadr)
library(RCurl) 
library(XML)
library(tidyverse)
library(rvest)
library(lubridate)
library(purrr)
library(ggsci)
library(gridExtra)


url_txt <- "https://review.rakuten.co.jp/item/1/257982_10002304/"
pages_num <- 100
get_r_reviews  <- NULL
df_reviews   <- NULL
for(i in seq(1, pages_num, by = 4)) {
  url <- paste0(url_txt,i,'.','1/')
  page <- read_html(url)
  
  get_r_reviews <- page %>% 
    html_nodes ('.hreview')  %>%    
    map_df(~list( name = html_nodes(.x, '.reviewer') %>% 
                    html_text(.,trim = FALSE) %>% 
                    {if(length(.) == 0) NA else .}, 
                  title = html_nodes(.x, '.summary') %>% 
                    html_text(.,trim = FALSE) %>% 
                    {if(length(.) == 0) NA else .}, 
                  stars = html_nodes(.x, '.value') %>% 
                    html_text() %>% 
                    {if(length(.) == 0) NA else .}, 
                  date = html_nodes(.x, '.dtreviewed') %>% 
                    html_text() %>% 
                    {if(length(.) == 0) NA else .}, 
                  reviews = html_nodes(.x, '.description') %>% 
                    html_text(.,trim = FALSE) , 
                  helpful = html_nodes(.x, '.revEntryAnsNum') %>%
                    html_text(.,trim = FALSE) %>%
                    {if(length(.) == 0) NA else .} ,
                  age_sex = html_nodes(.x, '.revUserFaceDtlTxt') %>% 
                    html_text(.,trim = FALSE) %>% 
                    str_replace_all(., "購入者|レビュー投稿.*|.*件","") %>%
                    str_replace_all(., " ","") %>%
                    str_trim(., side = "both") ,
                  sex = html_nodes(.x, '.revUserFaceDtlTxt') %>% 
                    html_text(.,trim = FALSE) %>% 
                    str_replace_all(., "購入者|レビュー投稿.*|.*件|.*代|以上","") %>%
                    str_replace_all(., "レビュー投稿.*","") %>%
                    str_replace_all(., " ","") %>%
                    str_trim(., side = "both") ,
                  age = html_nodes(.x, '.revUserFaceDtlTxt') %>% 
                    html_text(.,trim = FALSE) %>% 
                    str_replace_all(., "購入者|レビュー投稿|.*件|男性|女性","") %>%
                    str_replace_all(., " ","") %>%
                    str_trim(., side = "both") , 
                  posts = html_nodes(.x, '.revUserFaceDtlTxt') %>% 
                    html_text(.,trim = FALSE) %>% 
                    str_replace_all(., ".*代.*|購入者|レビュー投稿|件","") %>%
                    str_replace_all(., " ","") %>%
                    str_trim(., side = "both") ,
                  size = html_nodes(.x, '.revRvwUserDisp') %>% 
                    html_text(.,trim = FALSE) %>% 
                    str_replace_all(., "利用者サイズ:|商品を使う人.*|購入した回数.*|商品の使いみち:.*","") %>%
                    str_replace_all(., " ","") %>%
                    str_replace_all(., " ","") %>%
                    str_trim(., side = "both") ,
                  usage1 = html_nodes(.x, '.revRvwUserDisp') %>% 
                    html_text(.,trim = FALSE) %>% 
                    str_replace_all(., "利用者サイズ:.*|ボトムス.*|商品を使う人.*|購入した回数.*|商品の使いみち:","") %>%
                    str_replace_all(., " ","") %>%
                    str_replace_all(., " ","") %>%
                    str_trim(., side = "both") ,
                  usage2 = html_nodes(.x, '.revRvwUserDisp') %>% 
                    html_text(.,trim = FALSE) %>% 
                    str_replace_all(., "利用者サイズ:.*|ボトムス.*|商品の使いみち.*|購入した回数.*|商品を使う人:","") %>%
                    str_replace_all(., " ","") %>%
                    str_replace_all(., " ","") %>%
                    str_trim(., side = "both") ,
                 usage3 = html_nodes(.x, '.revRvwUserDisp') %>% 
                    html_text(.,trim = FALSE) %>% 
                    str_replace_all(., "利用者サイズ:.*|ボトムス.*|商品の使いみち.*|商品を使う人.*|購入した回数:","") %>%
                    str_replace_all(., " ","") %>%
                   str_replace_all(., " ","") %>%
                   str_trim(., side = "both") 
         ))
    df_reviews <- rbind(df_reviews, get_r_reviews)
  
    print(i)
    
    Sys.sleep(5)
}
view(df_reviews)
write.csv(df_reviews,"rakuten_reviews.csv")
df_r <- read.csv("rakuten_reviews.csv",header = TRUE, na.strings=c("","NA"))
write.csv(df_r ,"rakuten_reviews.csv")
view(df_r)
​​​​​​​-------------------------------------------------------------------------

☆関連記事​
▼楽天市場のランキング上位の「zootie:エアパンツ」の商品レビューをテキストマイニングしてみました:「ファッションジャンル商品対応版のRコード」でスクレイピング

▼【再改訂版コード】:「R言語」による楽天市場の商品レビューのスクレイピングコードの再改訂版:グラフ作成コードなどを追加:「素焼きアーモンド」の商品レビューのデータを取得:意外と多い「はじめて」の購入

▼「R言語」による楽天市場の商品レビューのスクレイピングコードの改訂版です:Excelで項目を切り分ける作業が不要になりました

▼楽天市場の
特定の商品のレビューを「R言語」でスクレイピングするコード:一部の項目の空欄・欠損値(missing values)を「NA」に置き換えてデータフレームを作成:継ぎはぎのコードですが・・・


▼JPRiDEの新モデル・完全ワイヤレスイヤホン「JPRiDE TWS-520」のアマゾン・カスタマーレビューのテキストを分析

▼「JPRiDE」ブランドのワイヤレスイヤホン「JPRiDE 708」の楽天市場のレビューのテキストを分析:ReviewMetaでアマゾンのカスタマーレビューの信頼性の高さを推定できるJPRiDEの製品​​

▼雑誌など第3者の高評価をアピールしている「JPRiDE(ジェイピー・ライド)」ブランドのワイヤレスイヤホン「JPA2」の楽天市場のレビューのテキスト分析です


▼JVCケンウッドの高評価イヤホン「HA-FX3X」とソニーの「MDR-EX450」のカスタマーレビューを比較

▼3000円クラスの高評価イヤホン「HA-FX3​のカスタマーレビューのテキスト分析を「User Local」の「AIテキストマイニング」で行ってみました:こんな分析ツールがあったとは、驚きです

▼カスタマーレビュー分析で、Microsoft Power BIの「Word Cloud」とスライサーの組み合わせは便利です:3000円クラスで、高評価のイヤホン「HA-FX3X」のカスタマーレビューのテキスト分析

▼アマゾンのカスタマーレビューを購入の判断材料にする場合、「ReviewMeta」(レビューメータ)によるチェックが役立ちます


​▼先日購入したイヤホン「HA-FX3X」のアマゾン・カスタマーレビュー分析:低音の良さ、コスパなどが高評価の理由のようです​:3000円クラスで、高評価のイヤホンです​
 ​​​​​​​​



[商品価格に関しましては、リンクが作成された時点と現時点で情報が変更されている場合がございます。]

Rではじめるデータサイエンス [ Hadley Wickham ]
価格:4320円(税込、送料無料) (2019/9/14時点)



​​






Last updated  2019.11.07 16:57:32
コメント(0) | コメントを書く
2019.09.07
カテゴリ:データ分析
​​​​​ NASAのNEOのデータを前処理するにあたって、「R」のコードによる方法とExcelのPower Queryによる方法の2種類を試してみました。

 なお、データは、NASAのサイト(https://cneos.jpl.nasa.gov/ca/)からダウンロードしています。

 結論としては、分析用データの前処理には、ExcelのPower Queryが便利なので、ExcelのPower Queryでできる処理はすべて行ってしまうのが効率的だと思います。
 
 その際、列の分割、列名の変更など処理の種類ごとにまとめてクエリの作業をするようにすると、後でクエリの記録がわかりやすくなると思います。


 そして、「R」のコードなど、コードによる処理が効率的な処理が残っていれば、その時にコードを利用すればよいと思います。

 注意点があるとすれば、ダウンロードした元データをExcelのシートとして開いて変更したりしないということだと思います。

 すべての前処理は、クエリかコードで行い、前処理で得られたデータのファイルは元データのファイルとは別名で保存するようにします。

 クエリやコードを変更することはよくあるので、クエリやコードを変更しても元データからいつでもやり直せるというのが、クエリやコードを利用することで得られるメリットだと思います。

 下記のように、「R」で何らかの前処理を追加することがあるかもしれませんが、
ExcelのPower Queryでの前処理が効率化につながっていれば、その処理には意味があると思います。

 NASAのNEOデータの場合では、NEOの推定サイズが欠損値の行を削除しようとした場合に、「R」のコードでは推定サイズ以外の欠損値の行も削除してしまっていたのですが、パワークエリでは簡単に処理できました。


 ExcelのPower Queryで前処理  →  Power BIで分析
                 → Rで前処理追加 →Rで分析

                ⇒ 
                ⇒ 

 ということで、分析をPower BIで行う場合、Rで行う場合、いずれの場合でも前処理の最初の段階ではExcelのPower Queryを利用するのがよいのではないかと思います。


▼データ件数のカレンダーヒートマップもPower BIで簡単に作成できます

 Rのggplotなどを利用する方法とは異なるデザインになります。

 下図は、地球まで1LD以下の距離に接近したNEOの日ごとの分布です。




▼Power BIでは、「R」とは異なるテイストのビジュアルを作成できます

 「2015年~2019年8月」の期間に0.5LD以下の距離まで地球に接近したNEOの散布図です。

 下図は、2015年以降のものですが、1900年以降で見ても「2019 OK」は、0.2LD以下の距離まで地球に接近したNEOの中で最大のものです。

 この比較的大きな
「2019 OK」が、地球に接近する直前までわからなかった、ということがNEOの観測の難しさを示していると思います。
 
 ◆横軸:地球との距離、縦軸と円の大きさ:NEOのサイズの推定値(下限値)



▼ところで、直近のアステロイド(小惑星)の動向を表示するウィジェットを見つけました(​https://www.nasa.gov/planetarydefense​)

 これがあれば、観測されているNEOの動向を見逃すことはなさそうです。

 でも、WindowsPCでは、「Yahoo ! ウィジェット」が必要なようです。
「Yahoo ! ウィジェット」はサービス終了していたはずです。

 Mac版の
ウィジェットがちゃんとあるので、NASAにおけるMacユーザーはかなり多いのかもしれません。

 接近距離はマイルで表示されていますが、地球と月の距離(1LD)
が約239,000マイルなので、この距離を目安にすればいいと思います。

※Average distance between Earth and the moon is about 239,000 miles (385,000 kilometers).



☆関連記事
▼NASAのNEOデータを、Power Queryで前処理してみました:コードを使わずに前処理が可能です

▼NASAのNEO(地球に接近した小惑星)のデータの分析:データを「R言語」で前処理するコード:データを随時更新する場合は、繰り返し作業を「コード化」するのが一番です 

▼8月21日放送のフジテレビ「とくダネ!」で「直径160mの小惑星が今月末に最接近」という話題がありましたが、地球にはあまり接近しないようです

▼地球に接近したNEOの日別の個数をMicrosoft Power BIで表示してみました

▼【平均値の差の検定をしてみました】地球に接近する小惑星の数の10月と8月の平均値には、統計的に有意な差が見られます

▼地球に接近する小惑星の数が多いのは10月頃?。少ないのは8月?:月別にかなり違いが見られます:Microsoft Power BI Desktopは、無料で利用できる、インタラクティブなインフォグラフィック作成ツールです


▼データ前処理の例(その2):Microsoft Power BI用データを準備するための処理の例:NASAのNEOデータをダウンロードし、英語の月名を含む日付の文字列を日付データに変換して、Power BIに読み込む

▼Microsoft Power BI用データを準備するための前処理の例です:NASAのNEOデータをダウンロードし、小惑星の大きさの推定値をExcelで取り出し、単位変換して、Power BIに読み込む

▼地球をかすめた小惑星「2019 OK」は、0.2LD以下の距離に接近したNEOの中で過去最大だったようです:NASAの1万3千件以上のNEOデータから

▼小惑星「2019 OK」は、過去3年間に0.2LD以下まで地球に接近したNEOの中でも最大でした:NASAのNEOデータをPower BIで分析してみました

▼【グラフを追加しました】:小惑星「2019 OK」はOKでしたが・・・:7月25日に地球とニアミスした、今年最大の小惑星の名前です。



​​






Last updated  2019.10.22 10:43:07
コメント(0) | コメントを書く
2019.09.06
カテゴリ:データ分析
 
 NASAのNEO(Near Earth Object)のデータの前処理を、ExcelのPower Query(パワークエリ)で行ってみました。

 なお、データは、NASAのサイト(https://cneos.jpl.nasa.gov/ca/)からダウンロードしています。


「R」のコードによる前処理については、​こちらの記事​にあります。

 パワークエリは、多くの処理内容がメニューに登録されていて、GUIで操作できるので、手軽で簡単です。

 列の分割、列の型の変更、列名変更など、サクサクと処理できます。

 Excelでは、関数を用いて変換していた、「km」の「m」への単位変換の処理も、Excelの関数をM言語の関数に移植するという方法のほかに、GUI操作の工夫でも簡単にできました。

▼NEOの推定値で、「km」を「m」に変換する方法の例:GUI操作版

 NEOの大きさの推定値は、1つのセルに「15m - 35m」「2.3km - 2.8km」のように推定値の下限値と上限値が入っていて、単位も「m」と「km」が混在しています。

 推定サイズの下限値と上限値を切り分けて、サイズの単位も統一する必要があります。

 サイズの推定値の列を、記号「-」で分割処理をして、「下限値」と「上限値」の2列に分けておきます。

 パワークエリの「値の置き換え」処理で、最初に「km」を「x1000」という文字列にします。次に、「m」を「x1」にします。「x」の文字は記号でも何でもいいです。

 そうすると、「1.3km」は「1.3x1000」に、「270m」は「270x1」といった文字列に置き換えられます。

 次に、「列の分割」処理で、「x」の文字によって列を分割します。「1.3」と「1000」、「270」と「1」という形で2列に分割されるので、後はこの2列の型を数字にし、「カスタム列」の追加で、列と列の掛け算をするだけです。
 
 Excelのシートでもこの方法は可能でしたので、1回限りの処理であれば、IF関数などを工夫する必要はなかったのかもしれません。



▼NEOの推定値で、「km」を「m」に変換する:Excel関数移植版

 パワークエリの「列の追加」メニューで「カスタム列」を選び、「カスタム列の式」の欄に、下記の「 」内の関数を記入する方法です。Excelの関数の内容をパワークエリのM言語の関数に書き換えたものを記入します。

 パワークエリでは、「if then else」文で変換処理を行っています
 
 Number.FromText関数を使って、抽出した文字を数字にして、掛け算ができるようにしています。


 文字がたくさんありますが、「
Estimated Diameter.1」は列の名前です。

 なお、事前にサイズの推定値の列を、記号「-」で分割処理をして、「下限値」と「上限値」の2列に分けておきます。


 M言語の処理対象の「列名」を変更することで、サイズの推定値の「下限値」と「上限値」の両方を簡単に単位変換できます。

 
Excel関数とパワークエリの関数の大きな違いは、Excel関数の対象が「セル」単位であるのに対して、パワークエリの場合は「列」単位である点にあると思います。

 Excel関数は、必要なセルのすべてにコピペしないといけませんが、パワークエリの関数の記述は1回だけです。コピペ漏れなどの危険性はありません。


 しかし、同じマイクロソフトなのに、Excel関数とPower QueryのM言語の関数の互換性については考えていないのでしょうか。縦割り組織の弊害なのでしょうか。参照するテキストの位置が異なっていたりするのも、意図的なものなのでしょうか。
 
 Excelでの蓄積が活かせないというのはどうかと思います。せめて、関数間の翻訳機能を用意してほしいと思います。


パワークエリでの関数の例:
「 if(Text.PositionOf([Estimated Diameter.1],"k")>0) 
then Number.FromText(Text.Start([Estimated Diameter.1],Text.PositionOf([Estimated Diameter.1],"k")-1))*1000 
else Number.FromText(Text.Start([Estimated Diameter.1] , Text.PositionOf([Estimated Diameter.1],"m")-1)) 」

※Excelの関数の例:
「=IF((IFERROR(FIND("k",I2),50)=50),LEFT(I2,FIND("m",I2)-1),LEFT(I2,FIND("k",I2)-1)*1000)*1 」



Excelの関数との対応関係

FIND 関数 → 
Text.PositionOf 関数・・・当該文字の位置の数字を返します。当該文字がないと「-1」を返します

LEFT 関数 → 
Text.Start 関数






▼パワークエリで可能な前処理は、パワークエリで処理し、コードが必要な場合は、「R」などを利用するのか、パワークエリのM言語を使うのかを検討するのがよさそうです


 パワークエリの登場によって、簡単な前処理をコードを記述して処理する必要はなくなっています。パワークエリでの処理は、1回限りのものではなく、クエリとして記録されるので、再現性もあります。

 結論としては、パワークエリで簡単にできる処理は、パワークエリを利用するのが正解のようです。



☆関連記事
▼NASAのNEO(地球に接近した小惑星)のデータの分析:データを「R言語」で前処理するコード:データを随時更新する場合は、繰り返し作業を「コード化」するのが一番です 

▼8月21日放送のフジテレビ「とくダネ!」で「直径160mの小惑星が今月末に最接近」という話題がありましたが、地球にはあまり接近しないようです

▼地球に接近したNEOの日別の個数をMicrosoft Power BIで表示してみました

▼【平均値の差の検定をしてみました】地球に接近する小惑星の数の10月と8月の平均値には、統計的に有意な差が見られます

▼地球に接近する小惑星の数が多いのは10月頃?。少ないのは8月?:月別にかなり違いが見られます:Microsoft Power BI Desktopは、無料で利用できる、インタラクティブなインフォグラフィック作成ツールです


▼データ前処理の例(その2):Microsoft Power BI用データを準備するための処理の例:NASAのNEOデータをダウンロードし、英語の月名を含む日付の文字列を日付データに変換して、Power BIに読み込む

▼Microsoft Power BI用データを準備するための前処理の例です:NASAのNEOデータをダウンロードし、小惑星の大きさの推定値をExcelで取り出し、単位変換して、Power BIに読み込む

▼地球をかすめた小惑星「2019 OK」は、0.2LD以下の距離に接近したNEOの中で過去最大だったようです:NASAの1万3千件以上のNEOデータから

▼小惑星「2019 OK」は、過去3年間に0.2LD以下まで地球に接近したNEOの中でも最大でした:NASAのNEOデータをPower BIで分析してみました

▼【グラフを追加しました】:小惑星「2019 OK」はOKでしたが・・・:7月25日に地球とニアミスした、今年最大の小惑星の名前です。


 







Last updated  2019.11.09 06:15:09
コメント(0) | コメントを書く
テーマ:iPhone(1418)
カテゴリ:家電・ガジェット
 新型iPhoneの発表時期が近づいてきましたが、新型iPhoneがDolby Atmos対応であることは間違いありません。

 なぜなら、iOS13対応の一部のハイエンド機種で「Dolby Atmos, Dolby Digital,  Dolby Digital Plus」への対応が公表されているからです。新機種が対応するのは、間違いないでしょう。


Appleのサイトから:
「Dolby Atmos playback
 Enjoy a thrilling surround sound experience from content with Dolby Atmos, Dolby Digital, or Dolby Digital Plus soundtracks.※

※Supported on iPhone XR, iPhone XS, iPhone XS Max, 11‑inch iPad Pro, and 12.9‑inch iPad Pro (3rd generation) 」



▼問題は、Netflixやアマゾン・プライム・ビデオなどのストリーミング配信が、iOS13の端末向けに「Dolby Atmos, Dolby Digital,  Dolby Digital Plus」の音声フォーマットを配信するのかどうか、とういことです。

 「利用できるコンテンツがあるのかどうか」が重要です。

 いくら、端末側に「Dolby Atmos, Dolby Digital,  Dolby Digital Plus」を再生する能力があっても、そのフォーマットのコンテンツを利用できなければ、意味がありません。

 現状では、一部のAndroid端末がそのような状態にあります。アマゾン・プライム・ビデオで「Dolby Atmos」のコンテンツがAndroid端末向けに配信されていたりしますが、多くの動画配信サービスでは、「Dolby Atmos」などのコンテンツはAndroid端末向けに配信されていません。

 

 Dolby Atmos対応であることをあまりアピールしていないのは、再生できるコンテンツがない、という背景があるからだと思われます。



 







Last updated  2019.11.03 08:20:39
コメント(0) | コメントを書く
2019.09.05
カテゴリ:データ分析
​​ NASAのサイト(https://cneos.jpl.nasa.gov/ca/)から、「2019 OK」のようなNEO(Near Earth Object:地球に接近する小惑星)のデータをダウンロードすることができます。

 そのデータの前処理をして、グラフを作成したりする作業をできるだけ自動化してみたいと思います。

 最終的には、API接続でデータを取り込んで、ということがいいのかもしれませんが、一見したところ、APIのデータにはNEOの大きさの推定値が含まれていないような気がします。

 API接続は、今後の課題としながら、ダウンロードしたデータの前処理をいかに自動化できるのかを考えてみました。

 ExcelやPower BIのPower Query(パワークエリ)を利用して前処理をするという方法もありますが、今回はRpubsでNASAのNEOデータの前処理をする「R」のコードを見つけたので、そのコードに継ぎ足しをしたコードでの処理方法を検証しています。
 
 なお、最初の一部分だけ、Power Query(パワークエリ)を利用しています。

▼「R」のコードによるNASAのNEOデータの前処理
 
1)NASAのサイトから、データをExcel形式でダウンロードして、Excelのパワークエリで年月日の文字列を分割処理
 
 データの2列目の「年月日時刻」の「±」の右側の数字を削除して、日付時刻データにしたいのですが、「R」での処理では、ゴミが残ってしまうので、Excelのパワークエリを用います。

 まず、NASAから、過去に5LD以下の距離まで地球に接近したNEOのデータをExcel形式でダウンロードして保存します。

 次に、クエリ処理用のExcelファイルを新規作成します。ダウンロードしたExcelファイルを「データ取得」の対象にします。

 パワークエリエディターでデータの2列目の「年月日時刻」の列を「±」の記号で列分割します。分割してできた「±」記号の右側の数字の列を削除します。

 右端の列に列名を設定します。


 クエリを適用してできたデータの表をCSV形式で保存します。

 以上で、Excelの処理は終了です。まとめると下記のような流れになります。


◆Excelでのパワークエリの処理の流れ 

ダウンロードした「データファイル1」 → クエリの対象にする → クエリの編集 → クエリを適用して作成した「データファイル2」 → 「データファイル2」をCSV形式で保存

 Excelでのパワークエリの処理は、このような流れになっているので、「データファイル1」は元のままです。「データファイル1」を開いて、何か変更するということはありません。
 
 「データファイル1」のデータをクエリの処理対象にします。クエリを編集し、クエリで処理したデータが「データファイル2」で、この「データファイル2」を使います。

 「クエリ」の処理手順は保存されているので、データが更新されたら、クエリでデータを読み込み、「クエリ」を適用して、「データ2」を更新します。

 「クエリ」は一度作成しておけば、繰り返して使えるので、「R」の「コード」で処理するのと同じようなものです。「クエリ」自体が「コード」なので、当然ですが。

 ということで、「前処理」の手順が「クエリ」として保存されていることになります。クエリのExcelファイルは、「NASA_NEO_Query」とか、適当な名前を付けて保存しておきます。



2)CSV形式で保存した「データファイル2」を「R」(「R Markdown」)に読み込みます

 CSVファイルを読み込んで、「R Markdown」で前処理とレポート作成を行います。

data <- read.csv('cneos_closeapproach_data.csv',fileEncoding = "utf8",stringsAsFactors = FALSE)


3)「R」でデータのクレンジング、前処理を行います:​こちらのサイトのコード​が元になっています。


 元のコードが対象としているデータは、今回NASAからダウンロードしたデータと同じ形ではないので、元のコードに継ぎ足しをしたり、変更したりする必要があります。

☆列名(変数名)が長いので、短い名称に変更します。

names(data) <- c('Object', 'Date', 'D_n', 'D_m', 'V_r', 'V_i', 'H', 'Diameter','obj')

☆年月日の文字列を日付データの型に変換します。
 Excelのクエリで、すでに年月日の文字列になっているので、「R」ではデータ型を変換するだけです。

☆グラフ作成や分析用に年と月などの数字を抽出しておきます。日付の列を分割する形で抽出するので、日付の列を「Datetime1」として複製し、その複製した列を分割して「year」「month」などを抽出します。

data$Datetime <- as.Date(data$Date)
data$Datetime <- as.POSIXct(data$Datetime)
data$Datetime1 <- as.POSIXct(data$Datetime)
data <- tidyr::separate(data,col = Datetime1,into = c("year","month","day","time"))


☆「Object」の名前にある「()や[]」を削除します。これは、元のコード通りです。


☆1つのセルに2つのデータが入っている、地球への接近距離のデータ「LD au」を切り分けます。

 切り分け記号の「 」の前後の半角の空白の有無で、結果が変わるので、注意が必要です。これは、Excelのパワークエリで行ってもいいかもしれません。

data <- tidyr::separate(data,col = D_n, into = c("Dn_ld","Dn_sep","Dn_au"), sep = " | ")

data <- tidyr::separate(data,col = D_m, into = c("Dm_ld","Dm_sep","Dm_au"), sep = " | ")

data <- data[, !(colnames(data) %in% c("Dn_sep", "Dm_sep"))]

data$Dn_ld <- as.numeric(data$Dn_ld)
data$Dn_au <- as.numeric(data$Dn_au)
data$Dm_ld <- as.numeric(data$Dm_ld)
data$Dm_au <- as.numeric(data$Dm_au)


☆1つのセルに2つのデータが入っている、NEOの大きさの推定値のデータ「下限値-上限値」を切り分けて、kmの単位をmに変換します。

 以前は、Excelシートで関数を用いて処理していましたが、「R」のコード例があったので、それを利用してみました。

 最初、元のコードでは、処理がうまくいきませんでした。

 ダウンロードしたデータの「下限値-上限値」の「下限値-」と「上限値」間のスペースが一定していないのが原因のようです。そこで、事前にスペースを削除してから処理するとうまくいきました。
 
 なお、コードにあるスペースも正規表現の一部になっているので、削除して詰めます。


 それから、欠損値の行を削除しておかないと「if文」が動かなかったので、欠損値の行を削除しました。

  「na.omit」のコードでは、「Diameter」の列を指定して、「Diameter」で、欠損値のある行を削除するようにしているつもりですが、「cols="data$Diameter"」が機能せず、他の列に欠損値がある行も削除されてしまいます。

 元データの行数(データ数)は、n=2838でしたが、欠損値のある行の削除処理の結果、n= 2822となりました。「Diameter」の列の欠損値のある行の削除だけであれば、このデータでは、1行の削除で済むはずなので、処理方法は今後の課題です。Excelのパワークエリで処理しておいてもいいかもしれません。

data$Diameter <- gsub(' ', '', data$Diameter)
data <- na.omit(data, cols="data$Diameter")


 元のコードは、「str_match」と正規表現を活用し、「60m - 130m」といった推定値を、「数字」「単位」「 - 」「数字」「単位」という5つの部分に分け、「if文」を使って距離の単位を変換するコードで、勉強になりました。


4)基本的なグラフを作成するコード:今後充実予定


「R Markdown」を利用する理由は、レポート更新の自動化です。基本的なグラフがデータ読み込みと同時に作成されるようにしたいと思います。


▼前処理したデータの要約を出力します。


summary(data)


 
▼データ数が多いので、グラフ作成対象データを絞り込みます。

☆2010年以降のデータに絞ります。

data <- data[data$year >= "2010",]
​​​​​​​​​​​​
☆地球に1LD以下の距離まで接近したNEOに絞ります。
data <- data[data$Dn_ld <= 1,]


<グラフ例>

▼横軸:接近日、縦軸:接近距離(LD)

 特に、傾向はないようです。ランダムに分布しているようです。

ggplot(data, aes(y = Dn_ld, x = Datetime)) + ​
  geom_point()  + 
  theme_bw(base_size = 14)



▼年別のNEOの接近距離(LD)の分布

ggplot(data, aes(y = Dn_ld, x = year)) + 
  geom_boxplot()  + 
  theme_bw(base_size = 14)



▼年別のNEOのサイズ(推定の下限値)の分布

ggplot(data, aes(y = size_low, x = year)) + 
  geom_boxplot()  + 
  theme_bw(base_size = 14)


▼横軸:距離(LD)、縦軸:推定サイズの下限値、点の大きさ:推定サイズの下限値

ggplot(data, aes(x = Dn_ld , y = size_low , size = size_low)) + 
  geom_point()


▼月別のNEOの観測数

 6月~8月は、観測数が少ない時期のようです。

ggplot(data, aes(x = month)) +
  geom_bar(stat = 'count')


▼年別のNEOの観測数

ggplot(data, aes(x = year)) +
  geom_bar(stat = 'count')



☆参考にしたページ:
​​​​​​Analysis of the Near Earth Object Asteroid Dataset:Kory Becker - October 21, 2015
(http://www.rpubs.com/primaryobjects/asteroids)


☆関連記事
▼8月21日放送のフジテレビ「とくダネ!」で「直径160mの小惑星が今月末に最接近」という話題がありましたが、地球にはあまり接近しないようです


▼地球に接近したNEOの日別の個数をMicrosoft Power BIで表示してみました

▼【平均値の差の検定をしてみました】地球に接近する小惑星の数の10月と8月の平均値には、統計的に有意な差が見られます

▼地球に接近する小惑星の数が多いのは10月頃?。少ないのは8月?:月別にかなり違いが見られます:Microsoft Power BI Desktopは、無料で利用できる、インタラクティブなインフォグラフィック作成ツールです


▼データ前処理の例(その2):Microsoft Power BI用データを準備するための処理の例:NASAのNEOデータをダウンロードし、英語の月名を含む日付の文字列を日付データに変換して、Power BIに読み込む

▼Microsoft Power BI用データを準備するための前処理の例です:NASAのNEOデータをダウンロードし、小惑星の大きさの推定値をExcelで取り出し、単位変換して、Power BIに読み込む

▼地球をかすめた小惑星「2019 OK」は、0.2LD以下の距離に接近したNEOの中で過去最大だったようです:NASAの1万3千件以上のNEOデータから

▼小惑星「2019 OK」は、過去3年間に0.2LD以下まで地球に接近したNEOの中でも最大でした:NASAのNEOデータをPower BIで分析してみました

▼【グラフを追加しました】:小惑星「2019 OK」はOKでしたが・・・:7月25日に地球とニアミスした、今年最大の小惑星の名前です。



[商品価格に関しましては、リンクが作成された時点と現時点で情報が変更されている場合がございます。]

Rではじめるデータサイエンス [ Hadley Wickham ]
価格:4320円(税込、送料無料) (2019/9/14時点)










Last updated  2019.10.09 07:31:25
コメント(0) | コメントを書く

全282件 (282件中 51-60件目)

< 1 2 3 4 5 6 7 8 9 10 11 ... 29 >

PR

Recent Posts

◆アマゾン・プライム・ビデオ:『エレメンタリー ホームズ&ワトソン in NY』 (字幕版)のシーズン6を観ています:Edgeブラウザでは1080pの画質です
◆I-Oデータがソニーの「nasne(ナスネ)」後継候補として名乗りをあげました
◆アマゾン・プライム・ビデオ:アニメ、「BANANA FISH(バナナフィッシュ)」を観始めました:EdgeブラウザではHD 1080pの画質です
◆Netflix:「ストレンジャー・シングス NG集」が公開されました:「Bloopers」とは「NG集」のことでした。
◆これまでに購入したパネルヒーターで最もいいと思うのは「サンルミエ・エクセラ」です
◆ドラマ・映画をイッキ観するためには「アイケア」にも注意しましょう
◆i-dioのハイレゾ級放送のアーティスト特集番組『「The Right Stuff」supported by e-onkyo music』:今月の特集は太田裕美さんです
◆日本の月平均気温偏差(℃):「1月」「2月」と「7月」「8月」の月平均気温偏差はほぼ無相関です:【追加しました】インタラクティブな散布図作成アプリを利用できるようにしました
◆アマゾン・プライム・ビデオでアニメ「バビロン 」シーズン1を観ました:特捜部検事が主役の社会派アニメです:EdgeブラウザだとHD1080pの画質です
◆日本の月平均気温偏差(℃)の推移です:今年の10月の気温は高めでした:過去2番目の水準です

Category

Archives

Free Space

Comments

Rakuten Ranking

Keyword Search

▼キーワード検索

Rakuten Card


Copyright (c) 1997-2019 Rakuten, Inc. All Rights Reserved.