Kaggle Tokyo Meetup #3 開催レポート
こんにちは。tkm2261です。
今日は10/28に開催したKaggle Tokyo Meetup #3の模様をレポートします。
このmeetupは@threecourseさんや@smlyさんが2年前ぐらいから始めて不定期で開催しており、
私もニートの有り余る労働力を活かして今回運営をして来ました。
開始前
今回はsmlyさんの勤め先であるアドバンステクノロジーラボさんに会場をお借りすることが出来ました。
いよいよKaggle Tokyo Meetup当日です!
— Takami Sato (@tkm2261) 2017年10月28日
入り口入って右手のエレベーターで4Fです
お待ちしております! pic.twitter.com/80r6soIJ9H
渋谷の超良いところにあって、美術館の上という超良いところのオフィスでした。
今回、Youtubeのチャネル登録者数が100人を超えたのでライブストリーミングをスマホで出来るようになったのですが、配信に耐えられる回線がなかったため今回は見送りました。次回以降考えます。
挨拶と自己紹介
threecourseさんがTokyowebminingからもろパクリしたスライドで開始
いつもはネタですが、今回は裏開催だったため喧嘩売ってる感じになってますが、向こうとも仲良いので大丈夫ですw
自己紹介は数が多いので紹介することは出来ませんが、meetup参加条件がKaggleで最低1 submitだったからか、コンペ上位者等レベルの高い人が散見されました。
運営入れて40人弱でmeetupはスタート
発表① ONODERAさん『Instacart 2nd Place Solution』
www.slideshare.net
最初の発表はONODERA(@0verfit)さんによる、Instacartコンペ2位の発表でした。
概要としては
- いつも買ってるコーラを買ってない時はダイエットコーラ買ってるなどの特徴を捉えたかった
- 1位の人は過去のその商品の購買有無を0-1にして、数字として特徴にいれていた。これはやるべきだった
- 予測値を確率として解釈するのは無理があるが、良い案がなかったため特徴の作り込みで対処した
- 商品購買予測モデルと購買有無(None予測)モデルを2つ作って精度がかなりあがった
ONODERAさんはKaggle公式ブログやgitリポジトリも公開しているので気になる方はそちらもどうぞ。
Instacart Market Basket Analysis, Winner’s Interview: 2nd place, Kazuki Onodera | No Free Hunch
GitHub - KazukiOnodera/Instacart: 2nd place solution
Prize Winnerの話が生で聞けるのは貴重な経験でした。ONODERAさんありがとうございました!
発表② Jackさん『Santander Product RecommendationのアプローチとXGBoostの小ネタ』
二人目は大阪からお越し頂いた、Jackさんです。長く私にとって謎の人で凄いお会い出来て良かったです。
Twitterを始めてくれて助かりました。
内容はSantanderコンペとXGBoostの概要の2本立てでした。
非常に資料がわかりやすいので見て頂ければと思いますが、Kagglerにとって有益な知見の塊でした。
- Santanderコンペでの商品特徴をみて直近データと去年同月のどちらで学習するかを見つけられた
- ラップトップのみで分析したので、データをローリングして学習、最後に幾何平均をとった
- 直近重み付けとかも試したが、幾何平均が最も良かった
- カテゴリカル変数をtarget平均で置き換える手法をとった
- targe-based encodingと呼ばれて最近知られてきた
- 単にやるとoverfitするのでCVのvalidationデータで特徴を作る
- CVの切り方は特に気にしなかったが上手く言った
- XGBoost概要はデータサイズやcolsambleを動かした時の結果への影響度やXGBoostアルゴリズムの概要を説明
- (XGBoost使う人は一度見ておく事を強く推奨します)
途中電源が切れてLTにも回ってもらったりもしましたが、発表ありがとうございました!
発表③ mamas16kさん『画像認識コンペ(UNIQLO)にdeep learning以外の手法で殴りこんでみた』
お次は、なんと若干学部3年生のmamas16kさんにUNIQULOコンペについて発表頂きました。
UNIQULOコンペ3位のthreecourseさんに面白いアプローチの人がいたと紹介頂き、今回知り合うことができました。
内容としては色を当てるコンペなのでひたすら色空間(RGB、HSV等)の3次元空間から特徴を如何に作るかという話で、
猫も杓子もDNNの中で良い着眼点だと思いました。Kaggleの衛星画像(DSTL)コンペでも色空間情報は有効だったらしく、頭の片隅に置いておくとコンペでも有効な場面がありそうです。
また、Probability Calibrationにも力を入れたと言っていました。
これはXGBoostなどのモデルが出す確率(スコア)は確率として解釈できない場合が多く、(というか普通できない。)
Probability Calibrationはどうにかスコアを実際の確率に近くする事を目指す手法です。
個人的にはLogistic Regressionは『訓練データの頻度=訓練データ予測値の和』となるので、こういう時はLogistic Regressionをかけてましたが、
Probability Calibrationという名前がついて一分野になっていることは知らず、非常に学びが多い発表でした。
1.16. Probability calibration — scikit-learn 0.19.1 documentation
学部2年でコレは末恐ろしく、また成果が出た折に発表をお願いしたいです。
ありがとうございました!
発表④ lyakaapさん『Carvana 3rd Place Solution』
※スライドは後ほど
やっと家着いた…
— Lyaka (@lyakaap) 2017年10月28日
スライドはwinners callで許可が出てからあげます
運営の方はお疲れ様でした!ほんと楽しかった
※スライド来ました!
最後の発表者はCarvanaコンペ③位のlyakaapさんです。
こちらはCarvanaコンペ後にKaggler Slackに降臨した折に、発表をお願いすることが出来ました。
こちらも学部4年生の方でした。発表者の半分が学部生とは、日本の将来に期待が持てそうです。
内容はスライドが来てからですが。
- 領域検知はU-NETが最強
- Dilated Convolutionを底の層に入れたのが聞いた。
- Psedo-Labelingで学習データを増やした
- 今回タスクとしては検知し易いものだったので、Psedo-Labelがそのまま信用できた
- Psedo-Labelingと訓練データの割合や、解像度の違いでアンサンブルをした。
- 1モデルを作るのに、学習に2日、予測に6時間かかった。
スライドの作りも非常に丁寧でわかりやすく、発表も落ち着いており、学部4年とは思えない風格でした。
今Smlyさんとコンペに一緒に出てるらしく、若いKagglerの台頭をまざまざと感じたmeetupでした。
こういう方々を見ると、日本の将来は実は明るいんでは無いかと思います。
LT
- t_iwmrさん「Personalized Medicineコンペ4位」
- Orfeonさん「GCPの活用法」
- MLにおけるBigQueryやCloud Dataflowの活用法の紹介
- Maxwellさん 「SberbankコンペのTips」
- smlyさん 「Kaggleネタもろもろ詰め合わせ」
- loggerはexplicitにimport、バイナリ配布は大変condaを理由なくdisるな、Doki Doki Litereture Clubはいいぞぉ
- threecourseさん「データを可視化する一般的なテク(?)」
懇親会
そのまま会場で、ビールと大阪王将のデリバリで懇親会をしました。
1人1,000円は集めすぎかも。。。と危惧しましたが、フタを開けると追加で買い出ししてほぼ使い切りました
運営としては変に余るより会計が楽ですが、予想以上に食って飲みました。笑
要因としては皆若く男だけだったのと、議論の質が高く盛り上がったことかなぁと思っております。
何度か勉強会には参加したり主催したりしてますが、今回はトップクラスの楽しさでした。
TwitterのTLでも同様のコメントが見られたので、また次回開催していきたいです。
最後に
今回は参加頂きありがとうございました!
非常に双方向の議論で楽しかったです。あと運営がグダりながらも上手く進行出来たのは皆様のおかげです。
次回についても開催を予定していますが、基本的に発表者はコンペ(Kaggle問わず)上位を想定しているので連続開催とは行かなそうです。
なので皆さんが上位入賞した時がMeetup開催時期なんので、良い成績をとったらTwitterかSlackでドヤって下さい!
すぐスカウトに行きます!
その代わりといってはアレですが、LTは比較的何でもOKにしようと思ってるので、何か調べたとか新しい手法Kaggleで試したとかも絶賛募集中です。
何かあれば、TwitterかSlackまでお願いします!
Kaggle入門動画をつくった
皆様こんにちわ
今回はKaggle入門動画作ったので、その事について書いていきます。
Twitterでも告知したし、ブログは良いかなーと思ってたのですが、
ニートで新しいこと挑戦企画としてYoutuberになってみました
— Takami Sato (@tkm2261) 2017年10月20日
Kaggleの提出までを環境構築からライブコーディングして実況解説してみました。私流のKaggleワークフローですがよければ見てみて下さいhttps://t.co/0QUDEa1etK
英語の翻訳タイトルつけると、Googleが日本語でインデックスしてくれない事に気づき、ブログにも投稿することにしました。
良ければ見てみて下さい。
Kaggle入門 Porto Seguroコンペ
規約的に怪しかったので、Kaggleにも問い合わせてOK貰ってます。
https://www.kaggle.com/c/porto-seguro-safe-driver-prediction/discussion/41562#233452
英語での議論はここでやってます。
引き続きニートなので、Youtuberとしてお金入ってくると嬉しいですが、まあ現実は厳しいでしょうね。
内容目次
内容としてはこんな感じになってます。気になるところがあったら視聴してみて下さい。
理研AIP主催Micheal Jordan先生最適化セミナー聴講メモ
お久しぶりです。
今日は10/20に参加した、理研AIPでのMicheal Jordan先生の講演のメモを書いていきたいと思います。
参加を許可頂いた理研AIPの方や司会の福水先生も良い会をありがとうございました。
Talk by Prof. Michael I. Jordan (University of California, Berkeley, USA) | 革新知能統合研究センター
In this post, I am writing about Prof. Micheal Jordan's speak at Riken AIP in Oct. 20th. If you have some problems about this post, please inform to @tkm2261 on Twitter.
いまはニートなので参加したセミナーの報告をする義務は全く無いのですが、やらないのもケツの座りが良くないので簡単なメモだけ書いていきます。
免責:私の拙いリスニング力に基づいて書かれているので、各自必要な箇所は調べて下さい。検索できるようにワードはなるべく残します。
間違っている箇所は積極的にコメントで教えて下さい
私の備忘のためでもあるので、不確かでも不確かなりに聴講すぐの時点のメモを残したいと思います。
タイトルと要約
webサイトの告知と異なり2つのトークを聞くことが出来ました。
- Part I: Variational, Hamiltonian and Symplectic Perspectives on Acceleration
- Part II: How to Escape Saddle Points Efficiently
両方共、連続最適化のお話です。
Part. I 要約
- Nesterovの加速法を始めとした、加速法はBergman Lagrangianを考える事により微分方程式として統一的に議論できる
- この時、全ての加速法は同じ経路を異なる時間で進んでいると解釈できる。
- ただし、この解析は経路が連続(おそらくステップサイズが無限小取れる)時の議論で、これを単に離散化(discretization)した時は精度保証ができず、実験的にも不安定だった。
- コレに対してSympletic integrationを用いて離散化した場合を解析する、Nesterovの加速法よりも速く、先行研究より安定したアルゴリズムが構築出来た?
最後の方は早くて少し聞き取れていません。
少し前の資料ですが、スライドはこれっぽい
https://www.sigmetrics.org/sigmetrics2017/MI_Jordan_sigmetrics2017.pdf
Part. II 要約
- PCA、Tensor分解など、局所解に悩む場面は多い
- これらの学習において、如何に鞍点を抜けるか、如何に効率よく鞍点を抜けるかが重要になってくる
- GDやSGDでの鞍点に対する研究はいくつかある
- 彼らの研究はPerturbation Gradient Descent(PGD)がSecond Order Stationary Point(SOSP)に収束する事を示した。
- (SOSPは、鞍点でなく停留点である度合いを2次まで考慮したものと思われ、First Order Stationary Pointへの収束を示した先行研究のよりも、より鞍点を避けて、より停留点と思われる点に収束できると思われる。)
おそらく↓が元ネタなので参照下さい。
[1703.00887] How to Escape Saddle Points Efficiently
講演メモ
初めに
最適化とコンピュータ資源にはトレードオフがある
- 凸緩和でのエラー
- 並列実行でのエラー
- 最適化オラクルの性能
- community complexity?
- subsampleing
近年のデータ解析の分野でも重要な問題
アルゴリズムを開発するだけでなく、下界を得ることは様々な場面で有用。
Part I: Variational, Hamiltonian and Symplectic Perspectives on Acceleration
加速勾配法はsublinearのオーダーで収束する
Nemirovski先生などが、90年台により優れた収束性を持つアルゴリズムはないかと研究。
一般的にモーメント法として知られている
加速法がどういった最適化オラクルにはいるのだろうか
まだまだ加速法はミステリアスで解析されていない。
加速法の解釈にはいくつか研究がある
- Chebyshev polynomial
- Linear Coupling
- etc...
しかし依然として謎があり、一体加速法の裏には何があるのだろうか?何故、一度下がって上がった方が収束が速いのだろうか?
加速法を連続(continious time perspective)(恐らくステップサイズが無限小取れる)を考えると、Boyd先生の研究により微分方程式として定義できる。
Bregman Lagrangianを導入して、最適化問題をBergman Lagrangianの時間で積分した値の最小化として考える。
この時、全ての加速法は同じ経路を異なる時間で移動する手法と考える事ができる。(All accelerated methods are traveling the same curve in space-time at different speeds)
p=2のときはNesterovの加速法で、P=3のときはaccelerated cubic-regularized Newton’s methodになる。
ただこの解析は、連続の場合であり離散化(discretization)をする必要がある。
ただしそのまま離散化すると、収束性の理論保証がなく、経験的に不安定なアルゴリズムとなる。
そこでSympletic integrationを用いる。物理の分野では有名
(ただし、この手法においてはconverce vs quantitiesのトレードオフがあるらしく、スライド無いでは『Is it possible to find discretiztion whose solutions exactly conserve these same quantities? YES!!』と言っていたが、分かる方解説求む)
Bergman Hamiltonian上でSympletic integrationを考えるとNesterovの加速法よりも(実験的に)速いアルゴリズムが開発できた。
Gradient法と組み合わせると、より安定したアルゴリズムとなった。
Part II:How to Escape Saddle Points Efficiently
悪い局所解はいつも問題である。
如何に鞍点を抜けるか、如何に効率よく鞍点を抜けるかが重要である
GDやSGDでの鞍点に対する研究はいくつかある
PCA、Tensor分解など、局所解に悩む場面は多い
1980年にNesterovが勾配降下法(GD)がFirst Order Stationary Point(FOSP)に収束することを示した。
本研究はPerturbation Gradient Descent(PGD)がSecond Order Stationary Point(SOSP)に収束する事を示した。
(FOSPやSOSPは鞍点でなく停留点である度合いを示していると思われ。Second orderだとより停留点っぽいところに収束できる事が示せると思われる)
幾何学的な解釈をすると、高次元の場合、鞍点付近では取れる値の幅がとても薄くなる。(恐らく勾配がなだらかすぎて鞍点判別&抜け出すのが難しい事を言っていると思う。わかった方解説求む)
この薄さが問題を難しくしている。
先行研究ではoverdamped Langevin diffusionを用いて収束に必要な反復回数がO(d/¥epsilon2)だったのに対し、本研究ではoverdamped Langevin diffusionを用いてO(¥sqrt(d)/¥epsilon)を達成した。(dは次元、イプシロンは目標精度)
Githubを整備した
Kaggleの汚いコードばっかなので、Bitbucketのコードを公開するのを躊躇ってたが、
このご時世githubにコードが上がっていないのもリスクなので諸々上げました
Kaggleコンペがプライベートシェア禁止のため普段bitbucketに上げてるんですが、
— Takami Sato (@tkm2261) 2017年10月10日
githubが寂しいのもアレなので、現行コンペ以外のコードはgithubにも上げました。
何も整理してないですが良ければ参考にどうぞhttps://t.co/ara8aSEMQJ
ニートになって3ヵ月経ったので、ニートについて書く
皆様、お久しぶりです。
以前のエントリでも触れましたが、絶賛ニートを楽しんでおります。
ニートになって早3ヵ月ですが、率直な感想としては、
世界がこんなに輝いていたとは!
っといったところです。
将来を犠牲にした束の間の天国かもしれませんが、体力ある20代に自分の時間を取れるのは最高です
5年もエンジニアしていたら勉強したいことが貯まるのは当たり前なので30歳前後で1年ぐらいニート期間は超おすすめです。
ポエムはエントリの最後の方にするとして、ニートのなり方とニートの私流楽しみ方を共有してニートの布教に努めたいと思います
手続き編
健康保険
健康保険は大きく分けて3つ戦略があると思います。
- 任意継続
- 国民健康保険
- 誰かの扶養に入る
結局私は国民健康保険に入りました。理由としては、
任意継続と国保は金額大して変わらないことが多いみたいなので、半年以上ニートするなら国保で良いかなぁと思ってます
あと国保の加入は資格喪失日以降でないと自治体で手続き出来ないので注意。
退職日後になるはやで役場に行きましょう。手続きは一瞬です。
年金
年金は特に選択肢ないですが、健康保険と一緒に役場で手続きします。これも一瞬で終わります。
確定拠出年金に加入していた場合は個人向けに切替える必要がありますので手続きしましょう。
住民税
振込用紙が送られて来るので振り込みましょう。一括納付するとかなり通帳削られるので、メンタルを強く持ちましょう。
失業給付
失業給付の申請だけは役場で出来ないので、近くのハローワークに行きましょう。
早く行ったほうが給付が早いのと、申請しておけば途中で就職しても残りの支給額の6割ぐらいの再就職手当をもらうことが出来ます。
次で諸々紹介します。
ハローワーク(失業給付)編
STEP:1 書類の準備
とりあえずハロワに行きましょう。持っていく物は
- 会社から送られてきた書類全部
- 身分証明書
- マイナンバー ※
- 顔写真(3x2.5) ※
- 通帳かキャッシュカード ※
※が付いているの物は最初なくてもなんとかなるので、無くてもとりあえずハロワに行きましょう
自己都合退職の場合は3ヵ月の給付制限期間があるので、支給開始までに書類が揃えばokです。
STEP:2 ハロワに行く
とりあえずハロワに行って受付すれば、よしなに案内してくれます。
書類書いて、求職票書いて、失業給付説明会の日程決めてで終わりです。
STEP:3 失業給付説明会に行く
自治体のどこかの大ホールでやります。
今日は失業給付の説明会
— Takami Sato (@tkm2261) 2017年7月27日
老若男女いて中々大規模である pic.twitter.com/1L6UCQp5n4
特に大きい情報はありませんが、この説明会参加も就職活動1回としてカウントできるので、そのあたりの説明は聞いておきましょう。
STEP:4 初回認定日に行く
手続きして1ヵ月後に初回認定日があります。時間も指定されて、これに行かないと失業給付もらえないので必ず行きましょう。
STEP:5 就活する(ハロワで求人検索)
3ヵ月の給付制限期間中に最低2回は求職活動しないといけません。
他にも求職活動と認められる行為がありますが、ハロワで求人検索するのがてっとり早いです。
注意が必要なのは、PC終わったあと、ハンコを貰わないと実績にならないので注意しましょう。ラジオ体操と思って下さい。
STEP:6 認定日に行く
給付制限が明けた認定日に行くと、自己都合退職でも晴れて給付がもらえます。
勉強編
Kaggle
分析官や機械学習エンジニアとして働いていたので、無職期間中に資格的な何かが欲しくて、Kaggle頑張りました。
Kaggle Masterになりました - tkm2261's blog
一応masterになれば、どこに出しても通用するっぽいので良かったです。
Master要件のGoldメダルはTop10ぐらいに入らないともらえないので、大変ですが見合うリターンはあると思ってます。
ぶっちゃけKaggleが出来るからといって分析官や機械学習エンジニアが務まるわけれはありません。
ただこの界隈は必要スキルセットが曖昧なので有象無象の外野を説得するのに肩書があったほうが便利です。
分析出来るとか、レポーティングできるとか、開発出来るとかは実際に出来ればよく、政治に時間を使わないで済むに越したことはないです。
競プロ
前職で競プロガチ勢たちがひしめき合ってたので折角なので始めました。
最初は怖いところかと思ってましたが、初心者はdivision 2から始まるので安心して始められます。
Div. 2は独断と偏見ですが、こんなイメージなのでpythonが少しかければ参加できます。
- 1問目: if文とfor文しってる?
- 2問目: 全列挙探索できる?
- 3問目以降: 優先度付きキューとかDP使える?グラフしってる?
とりあえず私はcodeforcesで3問解けると喜んでいます。
幾つかサイトを紹介しています。
-
- 言わずと知れた競プロの代表サイト
- ただ今は活発でなくcodeforcesが一番人気?
- SRMに出るとレートが変動していく。
- クライアントソフトを入れるまでが一苦労だが、topcoder-greedyを入れるとテストコード付きテンプレが自動で生成されるので参加しやすい。
-
- たぶん今一番活発な競プロサイト?
- 週1ぐらいでコンテストが開催される。
- topcoder-greedyみたいなツールはないので、自分でテンプレ作る必要があります。他人のパクりましょう
その他にも、日本のAtCoderやCS AcademyやCodeChefあたりが有名らしく、余裕があればやってみたいです。
勉強
現在は、強化学習系を学んでいて、DeepMindが公開したStarCraft2のAIをなんとか動かせないかやっています。
語るほどわかってきたら何処かに書きます
英語
英語が苦手すぎて東工大を選んだ私としては鬼門ですが、このご時世英語なしには無理になってきたので頑張っています。
TOEFL100点を目標に頑張っています、今にして思うとIELTSの方が良かったかもしれません。
TOEICは日本でしか通用しないので止めました。ただTOEFL一回230ドルは痛い。。。
実はニートになる前の2年前からTOEFLには取り組んでいて、現在スコアが92点までは来ています。大学時代のTOEICは640点でした。
最初はListeningが呪文にしか聞こえず、体質的に英語無理なんじゃないかと真剣に悩んだ時もありましたが、2年経つと8割は分かるようになったので継続は偉大です。
Writingはフィリピンで一ヶ月間にエッセイを1日3本書いてから、書くのが苦になくなりました。ただTOEFLのWritingスコア安定しないので精進してます
SpeakingもLimitedの評価を貰うセクションがあり精進してます。Speakingに関しては、何より瞬間英作文が効きました。
https://www.amazon.co.jp/dp/4860641345
これをやると、言いたいことを日本語で思いついてから1秒で英語になるので会話を成立させることが出来ます。そのうち無意識に出てくるようになります
とりあえず英語が出来るようになりたい人は、これを毎日やるのが良いと思ってます。
健康編
運動の習慣をつける
ニートは下手すると1日1歩も外に出ないので、最低限通勤で使用していた体力すら低下しかねないので、意識的に運動を入れたほうがよいです。
私の場合はこんな感じで、どれかを毎日やるようにしてます
ジムの使い方を覚える
ニートになって良かった事の上位としてジムの使い方を覚えた事があります。
ランニングマシンやバイクもあって運動もできるので、外出嫌いでもとりあえずジムに行ってしまえば自然と運動するので良いです。
私のようなヒョロガリは最初ジムに行くのが怖かったので、いくつかTipsを書いておきます
- ベンチプレスをやろう
- ジムに来てベンチプレスやるとテンションが上がるのでオススメです。ジム来た感が出ます。
- YouTubeでフォームを調べてから行きましょう。
- 初回はジムの人に使い方を聞きましょう
- 棒だけの20kgからスタートして徐々に上げて行きましょう
- すぐ終わる初心者なんて誰も気にしないので堂々行きましょう
- ダンベル中心のメニューを組む
- 筋トレ -> 有酸素運動(ラン・バイク)
- これで1時間から2時間ぐらいは潰せる
- 最後に風呂入っていくと一仕事した感が出る
- 最初は月額でなく毎回払い
- 最初はそんなに行かないので月額はもったいないかも
- 自治体のトレーニング室が安くておすすめ
ニートでジム通いが板についてきたが、
— Takami Sato (@tkm2261) 2017年9月8日
とどろきアリーナは
・330円で使える
・国保入ってると無料券アリ
・ジム利用者はサウナ付き風呂使える
などと非常にコスパ高い
結構混むらしいけど混む時間にニートは行かないしな
メンタル編
ニートなので何かやられるワケでは無いですが、ニート故に生活リズムを崩して遅起きしてボーっとして一日終わって自己嫌悪みたいなのが多発しました。
解決策としては、体がダルイと思ったら運動する!を実践するのが大事
運動や筋トレは思考をポジティブにしてくれます。
この習慣が身につくだけでもニートやるかいがあるかと思います
3ヵ月終わってみて
ここまでは非常に日々を楽しんでいます。
そもそも退職した理由が、会社の仕事と自分のやりたい事の方向が合わなかった事なので、退職してやりたい事が出来てれば楽しくわけないかなぁと思ってます。
無職期間を挟む事は、かなりリスキーなので万人に勧められるワケではないし、私も辞める前は相当悩みました。
ただ新卒から転職を挟んで、自分のスキルや感覚が大きく間違って無いことがわかってきて、なあなあで仕事するよりまとまった時間で勉強したほうが将来のキャリアの伸びが良さそうだと考えて実行してしまいました。
それに次に就職するときに苦労するようなら、変なイキリがとれてそれはそれで良い気がしています。
ニートになるのはかなり決断が必要ですが、
エンジニアは30歳前後で1年ぐらいニートしたほうが良いと思ってます。
Kaggler Slack作りました
追記 2023/03/17
また変わっていました。
こちらが現在のkaggler-ja slack参加URLです。(2023/03/17確認)万一期限が切れていたらDMなど一報頂けると助かります。https://t.co/tylk3CY6nk https://t.co/6cFUBfDBui
— Takami Sato (@tkm2261) 2023年3月17日
追記 2022/10/23
また変わっていました。
こちらが現在のkaggler-ja slack参加URLです。(2022/08/16確認)万一期限が切れていたらDMなど一報頂けると助かります。https://t.co/soKMpRp7We https://t.co/4pAmML8id7
— Takami Sato (@tkm2261) 2022年8月15日
追記 2021/03/11
Slack側の仕様変更があり招待URLが期限切れになってました。
こちらが現在のkaggler-ja slack参加URLです。Never Expireのオプションが復活して期限切れはしなくなったと思いますが。万一期限が切れていたらDMなど一報頂けると助かります。https://t.co/ITT42hPKzV https://t.co/4pAmML8id7
— Takami Sato (@tkm2261) 2021年3月10日
現在は下記のURLから入れますが、もし万が一期限切れになっていましたらTwitterのDMでお知らせ頂けると助かります。
Kaggler-ja slack
Twitterでは拡散しましたが、検索で来る人もいそうなので宣伝
@smlyさん @threecourseさんに
— Takami Sato (@tkm2261) 2017年8月22日
日本Kagglerのslackオープンしてもらいました!
誰でもウェルカムです!ただ互助会なので業者や勧誘は蹴飛ばします!
皆でKaggleやりませうhttps://t.co/PUuyCJFk8F
https://kaggler-ja.herokuapp.com/
オープンチャンネルなのでメール入れれば誰でも入れます
誰もチェックとかしてないので気軽にどうぞー