簡単に使える
- 2Hop Links Plus
- Calender
2Hop Links Plus を使うと scrapbox っぽくなる. Caleder はデイリーノートを作るのに便利.
個人的に気に入っている
- Activity History
- DataView
Activity History でどれくらい使用しているか可視化できる. DataView は Activity History に必要だったはず.
あると便利
- RecentFiles
www.notion.so notion はデータベースとして使う.振り返り,参照できるように整理が重要. notion はスマホからもアクセスしやすい.
obsidian.md Obisidan は作業ノートかつ記録ログで,なるべくいざ振り返れるように整理. Obisidan はスマホで作業しようとはならない. Obisidan は仕事用,個人の勉強用の二つの Vault を作って利用.
Apple の Notes はあらゆるメモ帳. ページ数が多いので,整理整頓はできていない.
discord.com Discord は時系列に沿ったメモを残すのにも便利かも. チャット系でスマホ&PC で使えるのが Discord くらいな気がする.
google keep はプログラミング系のコマンドをまとめて,テンプレートとして保存. 必要に応じて使えるように整理する. ページ数は少ないので整理も楽.
特定のプロジェクトではなく,一般的な情報を整理する際に使用する.
work 用の google アカウントと private 用の google アカウントで分けてる. また,google spreadsheet および google doc には notion でそれ用のデータベース作っておくと整理しやすい.
特定のプロジェクトの情報を整理するのに使用.
excel は PC ローカルに保存する用. 自分の場合だと,特定のプロジェクト毎にフォルダを作って,それ毎に excel を作って,それ単位で管理. word はなんか好きではないので,mac だと pages の方を個人的には使いがち. powerpoint はなんか好きではないので,mac だと keynote の方を個人的には使いがち.
scrapbox で整理している. PC やプログラミングで困ったことはなるべくここで公開.
PC が散らかってイライラしてきたので,ここで整理します.
以下,環境について.
PC は mac.
ただ,mac は仕事用,プライベートで複数台を所持しています.
仕事? といっても大学院生で数値計算系の研究をしています.
クラウドは google drive を使用しています.
使い方としては,クラウドをメインに使い,ローカル PC は重いファイル等を保存するために使用します.
フォルダの構成を示します.
000_Home ... (メイン) 000_Shared ... (共有用) 000_Starred ... (お気に入りのファイル) 999_Archives ... (散らかったファイルを避難させる...いつか整理したい) 999_Memo ... (一時的な保存場所) Classroom Colab Notebooks GDriveAlias ... (グーグルドライブ内のエイリアス)
メイン内の構造.
000_Home └ Work ... (仕事用) └ Research ... (研究用) ├ README.md ... (フォルダの構成を書いておく) └ 00_dev ... (開発用) └ code ├ others └ starred └ 01_thesis ... (自分の論文) ├ doctor ├ master └ bachelor ├ 01_conferences ... (学会) ├ 01_journal_papers ... (自分の journal 論文) ├ 02_lab_presentasions ... (研究室内発表) ├ 02_univ_presentasions ... (学内発表) ├ 03_funding ... (DC,奨学金含む資金調達) ├ 04_career ... (就職活動) ├ 99_samples ... (よく使う図などの保存) └ 99_others ... (自由に使う) └ Univ ... (大学の授業など) ├ 01_bachelor ├ 02_master └ 03_doctor └ Dev └ README.md └ Private ... (自由に使う)
@home Desktop Download . . LocalAlias ... (ローカルのエイリアスを保存し,アクセスしやすくする) Work ... (メイン) ├ DataBase ... (重要なデータ or よく使うデータを保存する) ├ 00_starred_alias ... (データベース内のエイリアスを保存する) ├ 00_starred_backups ... (よく使うデータを保存する) ├ 202104_202106 ... (一年を4分割して時系列で保存) ├ 202107_202109 ├ 202110_202112 ├ 202201_202203 └ old ... (昔のデータ.時間がある時に整理する) ├ Dev ... (開発用) ├ project ... (プロジェクト毎に保存する) └ project_name (時系列で保存する) └ 20220208_abc_abc ├ bakcup ... (バックアップ) └ bakcup_name (時系列で保存する) └ 20220208_abc_abc └ code ... (プログラム開発用) └ GitHubBase ... (GitHub をコードのバックアップとして使っており,主要なレポジトリを clone している.)
Dev はグーグルドライブで自動的にバックアップするように設定しておく.
また,バックアップ (同期) するフォルダには mac のタグ機能を利用し #SyncGDrive
とつけておく.
容量が128 GB しかないので,外付けSDカードをメインに使っています.
@Volumes/ExternalSD/ AppData ... (アプリ用のデータ.主に仮想環境等のイメージを置く予定) Home ... (メイン) ├ DataBase ... (重要なデータ or よく使うデータを保存する) ├ GitHubBase ... (GitHub をコードのバックアップとして使っており,主要なレポジトリを clone している.) ├ Private ... (生活に関するファイルでクラウドで管理するまでもないものを保存する) └ Work ... (仕事に関するファイルでクラウドで管理するまでもないものを保存する) TODO ... (整理するのが面倒なものを一時的に避難し,時間がある時に整理する)
Private, Work はグーグルドライブで自動的にバックアップするように設定しておく.
また,バックアップ (同期) するフォルダには mac のタグ機能を利用し #SyncGDrive
とつけておく.
上記を守れるように運用していきたい.
大学院生は自主的に効率よく研究をすることが求められます. そして,熱心に研究することも大切ですが,休息をしっかりとること,つまり,ワークライフバランスが長期間走り続けるためにはとても重要です.
ワークライフバランスを安定させるために自分は Toggl を使っています. その使い方を個人的にまとめてみました.
続きを読むPython でデータ分析を行なう方法が説明されており,100 本の問題が載っています.
データの前処理から,機械学習,最適化,画像処理,自然言語処理まで幅広く学ぶことができます.
データ分析の初心者におすすめです!
ただ,Python はなんとなく使える必要があると思います.
(全く分からない人は,Progate のPython コースがおすすめ)
特に,Kaggle や SIGNATE に登録してみたが,何をやったらいいか分からないという方に強くおすすめします!
データ分析の方法がわかるようになります.
この本を読むまで Kaggle や SIGNATE などのデータコンテストに参加しても何をしたら良いかわからない状態でした.
しかし,与えられたデータをどのように分析していけば良いのかこの本を読むことでわかるようになり,私は,SIGNATE の中級になることができました.
週に3回くらいで1回10本進めることを目標に進めました.
しかし,思うように進まないこともあり1ヶ月半ぐらいかかりました.
Amazon などで買うのがおすすめです.
学生は学校などの図書館で借りるのがおすすめです.
もし,図書館にないときは,リクエストを出しましょう.
第1部(基礎編)では、ビジネスの現場で実際に得られるデータ分析するために必要なデータ加工のノウハウを学びます。比較的きれいなウェブからの商品の注文に関するデータと、データの読み込みにすら苦戦する「汚い」データの多い小売店のデータを例に、データ加工の実践を行います。
つまづいた点は特になかったです.
python の Pandas や Matplotlib を使うので,環境構築の必要があるのですが,初めてでよくわからないという方は google corabolatory を使えばいいと思います.
私は環境構築はしてありますが,後述の個人的な理由で google corabolatory を使って学習を進めました.
第2部(実践編1)では、機械学習の技術を活用して顧客の分析などを行うために必要なノウハウを学び、実際のデータを使っての課題発見・解決を実践していきます。
実際にとあるジムの顧客のテーブルデータを元に分析を行なっていきます.
ある期間のデータから,未来の退会人数の予測をしたりと面白かったです.
レベルはある程度上がりますが,つまづく点はあまりないと思います.
第3部(実践編2)では、最適化技術を導入するためのノウハウを学び、経営状況の改善を実践していきます。
物流の最適ルートをコンサルティングします.
まずは,物流ネットワークを可視化する事を体験します.
そして,そのネットワークの最適化を行います.
次に,SNS の繋がりデータを元に消費者の行動を予測したりと,やっていることはコードの写経なのですが,実践的な雰囲気を味わいながら行う事ができます.
この辺りからコードの意味が掴みづらくなってきます...
第4部(発展編)では、画像認識技術や自然言語処理技術などの「AI」とも呼ばれる技術を駆使して、データ化されていない情報をも利用して、顧客の潜在的な需要の把握など、ビジネスの現場で期待されているノウハウを学び、実践していきます。
つまづいた点は多々あります.
つまづいた点は,「計算時間」「ライブラリー」の2点です.
まず,画像認識技術には計算時間がとてもかかります.
PC 環境にもよりますが,今までのノックは計算時間がとても短かったのに対し,突然長くなります.
google corabolatory で GPU を利用する事で,計算負荷を軽くしようと試みましたが,あまり上手くいきませんでした.
素直に長時間回しました.
次の問題は「ライブラリー」です.
画像認識では opencv などある程度見慣れたライブラリーが使用されていたのですが,自然言語処理では全くみた事のないライブラリーが使われており,少しインストールにつまづきました.
というのも,あまりいたづらに自分の PC に一度しか使わないライブラリーを入れるのはやりたくないため,全て google corabolatory で行なったためつまづいてしまいました.
最終的には全て実行し,学習する事ができました.
python データ分析 100 本ノック,おすすめです!