データの解析に手段にはこだわらない
IT業界でフリーランスとして仕事を長くやっておりますよ大きなプロジェクトの場合はシステムの規模も大きいわけでしてそこには巨大なデータも存在するわけですなそのようなデータをどう扱うかについては一番メインの手段はExcel で読み込むことが多いですなjson データの場合も階層の構造を把握できればCSVに変換してExcel のセルに表示して確認したりしますよデータを加工する必要がある場合がほとんどですがExcel 関数でだけでいけると思えばそれで押し切って完成させてしまう場合もありますなVBAでのプログラミングは前提とはなりませんなやはり実装する時間や手間、バグが気になりますなもしExcel 関数だけでは足りずもう少し処理が必要ならVBA でシート用の関数を組んでそれを利用して完成できれば簡単ですなさらに必要ならやはりVBA で簡単なプログラミングをするときもありますな自分の作業としては分析という工程には沢山の時間をかけられるわけではありませんので基本的にはスピードとミスがないことが第一でございますなというわけで手段にはまったくこだわらないという方針になるのでございますよExcel ではシートの行数が約100万行が限界ですのでそれに収まっていていればとりあえずはExcelで表示して確認ですな本格的に加工分析となると10万以下ならExcelが利用できますがそれ以上だと処理速度が問題になる場合もあるのでケースバイケースですな100万、10万を超える場合はファイルとしてはCSV ファイルに保存されることがほどんどですなCSVはデータベースにインポートしてから利用することも検討になりますなデータベースはSQL Server を使いますよデータベースであれば1億行を超えるデータでも処理可能ですなSQL Server はインストールが簡単で環境構築も利用も簡単ですな当然ですが基本的にSQL での加工となりますのでSQLの知識も必須ですな加工したデータ件数が10万程度に絞られることが確定したらExcelでの作業に移行しますよAccess という選択肢もありますがほとんど利用しませんなやはりExcelでの作業に移行するほうが圧倒的に簡単ですなEXcel関数やSQLでの処理でデータ加工のほとんど完成していれば最終的にはデータ加工処理の全体をC#やpython で書き直すということもありますなただしここもその実装作業によるソースコードが成果物になったり繰り返しデータ加工処理が必要になるという前提があればですな対価が発生する成果物として認められそうもないのであればVBA で適当に作って終わりにすることも検討しますな