ソラノテ

プログラミングと日常

Obsidian のおすすめプラグイン

簡単に使える

  • 2Hop Links Plus
  • Calender

2Hop Links Plus を使うと scrapbox っぽくなる. Caleder はデイリーノートを作るのに便利.

github.com github.com

個人的に気に入っている

Activity History でどれくらい使用しているか可視化できる. DataView は Activity History に必要だったはず.

github.com

blacksmithgu.github.io

あると便利

  • RecentFiles

github.com

おすすめの情報管理ツールについて

デジタルなノートとなるツール

  • notion
  • Obisidan

www.notion.so notion はデータベースとして使う.振り返り,参照できるように整理が重要. notion はスマホからもアクセスしやすい.

obsidian.md Obisidan は作業ノートかつ記録ログで,なるべくいざ振り返れるように整理. Obisidan はスマホで作業しようとはならない. Obisidan は仕事用,個人の勉強用の二つの Vault を作って利用.

デジタルなメモ帳となるツール

Apple の Notes はあらゆるメモ帳. ページ数が多いので,整理整頓はできていない.

discord.com Discord は時系列に沿ったメモを残すのにも便利かも. チャット系でスマホ&PC で使えるのが Discord くらいな気がする.

google keep はプログラミング系のコマンドをまとめて,テンプレートとして保存. 必要に応じて使えるように整理する. ページ数は少ないので整理も楽.

google 系のノートとなるサービス

特定のプロジェクトではなく,一般的な情報を整理する際に使用する.

work 用の google アカウントと private 用の google アカウントで分けてる. また,google spreadsheet および google doc には notion でそれ用のデータベース作っておくと整理しやすい.

micorosoft および apple 系のノートとなるサービス

特定のプロジェクトの情報を整理するのに使用.

excel は PC ローカルに保存する用. 自分の場合だと,特定のプロジェクト毎にフォルダを作って,それ毎に excel を作って,それ単位で管理. word はなんか好きではないので,mac だと pages の方を個人的には使いがち. powerpoint はなんか好きではないので,mac だと keynote の方を個人的には使いがち.

ブラウザ上のノート

scrapbox で整理している. PC やプログラミングで困ったことはなるべくここで公開.

PC とクラウドを整理整頓したい大学院生の自分なりのルール

概要

PC が散らかってイライラしてきたので,ここで整理します.

以下,環境について.

PC は mac.

ただ,mac は仕事用,プライベートで複数台を所持しています.

仕事? といっても大学院生で数値計算系の研究をしています.

クラウドgoogle drive を使用しています.

使い方としては,クラウドをメインに使い,ローカル PC は重いファイル等を保存するために使用します.

フォルダの構成を示します.

グーグルドライブ

000_Home ... (メイン)
000_Shared ... (共有用)
000_Starred ... (お気に入りのファイル) 
999_Archives ...  (散らかったファイルを避難させる...いつか整理したい)
999_Memo ... (一時的な保存場所)
Classroom
Colab Notebooks 
GDriveAlias ... (グーグルドライブ内のエイリアス)

メイン内の構造.

000_Home
    └ Work ... (仕事用)
        └ Research ... (研究用)
            ├ README.md  ... (フォルダの構成を書いておく)
            └ 00_dev ... (開発用)
                └ code
                    ├ others
                    └ starred
            └ 01_thesis ... (自分の論文)
                ├ doctor 
                ├ master 
                └ bachelor 
            ├ 01_conferences ... (学会)
            ├ 01_journal_papers ... (自分の journal 論文)
            ├ 02_lab_presentasions ... (研究室内発表)
            ├ 02_univ_presentasions ... (学内発表)
            ├ 03_funding ... (DC,奨学金含む資金調達)
            ├ 04_career ... (就職活動)
            ├ 99_samples ... (よく使う図などの保存)
            └ 99_others ... (自由に使う)
        └ Univ ... (大学の授業など)
            ├ 01_bachelor 
            ├ 02_master
            └ 03_doctor   
        └ Dev 
            └ README.md
    └ Private ... (自由に使う)

PC

仕事用 mac mini

@home 

Desktop
Download
.
.
LocalAlias ... (ローカルのエイリアスを保存し,アクセスしやすくする)
Work ... (メイン)
├ DataBase ... (重要なデータ or よく使うデータを保存する)
          ├ 00_starred_alias ... (データベース内のエイリアスを保存する)
          ├ 00_starred_backups ... (よく使うデータを保存する)
          ├ 202104_202106 ... (一年を4分割して時系列で保存)
          ├ 202107_202109
          ├ 202110_202112
          ├ 202201_202203 
          └ old ... (昔のデータ.時間がある時に整理する)
├ Dev ... (開発用)
          ├ project ... (プロジェクト毎に保存する)
                └ project_name (時系列で保存する) 
                        └  20220208_abc_abc
          ├ bakcup ... (バックアップ)
                └ bakcup_name (時系列で保存する) 
                        └  20220208_abc_abc
          └  code ... (プログラム開発用)
└ GitHubBase ... (GitHub をコードのバックアップとして使っており,主要なレポジトリを clone している.)

Dev はグーグルドライブで自動的にバックアップするように設定しておく. また,バックアップ (同期) するフォルダには macタグ機能を利用し #SyncGDrive とつけておく.

プライベート用 Macbook Air

容量が128 GB しかないので,外付けSDカードをメインに使っています.

@Volumes/ExternalSD/

AppData ... (アプリ用のデータ.主に仮想環境等のイメージを置く予定)
Home ... (メイン)
├ DataBase ... (重要なデータ or よく使うデータを保存する) 
├ GitHubBase ... (GitHub をコードのバックアップとして使っており,主要なレポジトリを clone している.)
├ Private ... (生活に関するファイルでクラウドで管理するまでもないものを保存する)
└ Work ... (仕事に関するファイルでクラウドで管理するまでもないものを保存する)
TODO ... (整理するのが面倒なものを一時的に避難し,時間がある時に整理する)

Private, Work はグーグルドライブで自動的にバックアップするように設定しておく. また,バックアップ (同期) するフォルダには macタグ機能を利用し #SyncGDrive とつけておく.

上記を守れるように運用していきたい.

Toggl で実現する大学院生のワークライフバランス

大学院生は自主的に効率よく研究をすることが求められます. そして,熱心に研究することも大切ですが,休息をしっかりとること,つまり,ワークライフバランスが長期間走り続けるためにはとても重要です.

ワークライフバランスを安定させるために自分は Toggl を使っています. その使い方を個人的にまとめてみました.

続きを読む

【体験談】引越し先の検討時の学びと後悔

博士課程後期に進学する学生の引越し先選びのほぼ個人的な日記です.

新住居への不安と意思決定の後悔を消すために書きます...笑

続きを読む

「Python データ分析 100 本ノック」を読んだ感想

どんな本?

Python でデータ分析を行なう方法が説明されており,100 本の問題が載っています.
データの前処理から,機械学習,最適化,画像処理,自然言語処理まで幅広く学ぶことができます.

どんな人におすすめ?

データ分析の初心者におすすめです!
ただ,Python はなんとなく使える必要があると思います.
(全く分からない人は,Progate のPython コースがおすすめ)
特に,Kaggle や SIGNATE に登録してみたが,何をやったらいいか分からないという方に強くおすすめします!

何ができるようになった?

データ分析の方法がわかるようになります.
この本を読むまで Kaggle や SIGNATE などのデータコンテストに参加しても何をしたら良いかわからない状態でした.
しかし,与えられたデータをどのように分析していけば良いのかこの本を読むことでわかるようになり,私は,SIGNATE の中級になることができました.

どうやって読み進めたの?

週に3回くらいで1回10本進めることを目標に進めました.
しかし,思うように進まないこともあり1ヶ月半ぐらいかかりました.

何処で手に入れた?

Amazon などで買うのがおすすめです.
学生は学校などの図書館で借りるのがおすすめです.
もし,図書館にないときは,リクエストを出しましょう.

詳細

第一部:データの前処理

第1部(基礎編)では、ビジネスの現場で実際に得られるデータ分析するために必要なデータ加工のノウハウを学びます。比較的きれいなウェブからの商品の注文に関するデータと、データの読み込みにすら苦戦する「汚い」データの多い小売店のデータを例に、データ加工の実践を行います。

つまづいた点は特になかったです.
python の Pandas や Matplotlib を使うので,環境構築の必要があるのですが,初めてでよくわからないという方は google corabolatory を使えばいいと思います.
私は環境構築はしてありますが,後述の個人的な理由で google corabolatory を使って学習を進めました.

第二部

第2部(実践編1)では、機械学習の技術を活用して顧客の分析などを行うために必要なノウハウを学び、実際のデータを使っての課題発見・解決を実践していきます。

実際にとあるジムの顧客のテーブルデータを元に分析を行なっていきます.
ある期間のデータから,未来の退会人数の予測をしたりと面白かったです.
レベルはある程度上がりますが,つまづく点はあまりないと思います.

第三部

第3部(実践編2)では、最適化技術を導入するためのノウハウを学び、経営状況の改善を実践していきます。

物流の最適ルートをコンサルティングします.
まずは,物流ネットワークを可視化する事を体験します.
そして,そのネットワークの最適化を行います.
次に,SNS の繋がりデータを元に消費者の行動を予測したりと,やっていることはコードの写経なのですが,実践的な雰囲気を味わいながら行う事ができます.
この辺りからコードの意味が掴みづらくなってきます...

第四部

第4部(発展編)では、画像認識技術や自然言語処理技術などの「AI」とも呼ばれる技術を駆使して、データ化されていない情報をも利用して、顧客の潜在的な需要の把握など、ビジネスの現場で期待されているノウハウを学び、実践していきます。

つまづいた点は多々あります.
つまづいた点は,「計算時間」「ライブラリー」の2点です.
まず,画像認識技術には計算時間がとてもかかります.
PC 環境にもよりますが,今までのノックは計算時間がとても短かったのに対し,突然長くなります.
google corabolatory で GPU を利用する事で,計算負荷を軽くしようと試みましたが,あまり上手くいきませんでした.
素直に長時間回しました.
次の問題は「ライブラリー」です.
画像認識では opencv などある程度見慣れたライブラリーが使用されていたのですが,自然言語処理では全くみた事のないライブラリーが使われており,少しインストールにつまづきました.
というのも,あまりいたづらに自分の PC に一度しか使わないライブラリーを入れるのはやりたくないため,全て google corabolatory で行なったためつまづいてしまいました.
最終的には全て実行し,学習する事ができました.

python データ分析 100 本ノック,おすすめです!