比較的複雑なパイプラインをコーディングエージェントで増改築しながら試行錯誤続けていると流石にコード品質が劣化してくる。かなりきつくガイドライン作っておかないと厳しい
Posts by yng
新しいプロジェクトやる時にまずskills整備するようになってきた。もうちょっとこっちが熟達すれば複数プロジェクトで使い回しやすく整備もできるんだろうけど、まだどれくらいうまくいくか手探りな部分があるのでひとまずはレポごと
BlueskyのDiscoverの推薦システム。Two towerがうまくいかなかったのでサクッと切り替えて、PinterestのPinnerSageを実装したらしい。PinnerSageはユーザーごとにクリックしたアイテムをクリスタリングして、recencyベースでクラスタに重要度を割り当て、重要クラスタからretrievalする。クラスタリングに使う特徴量は静的な埋め込みベクトルを使うので、アイテムの寿命が短いblueskyだとハマったという感じのよう
open.substack.com/pub/recsysml...
お疲れさまでした!
Mac Studio触る機会があったけどそこそこ大きいモデルもMLXで結構な速度で動いてすごい
わかります、自分は最近子供と一緒に寝て早起きするようにしてますがそれでも2時間確保できるのは稀なのでとても手が出ないですね…。寝てる間にコーディングエージェントを回しまくるしかなさそう
プライベートPCはM1 MacBook Air 8GB使ってて普通に快適だったんですが、最近のアップデートでAI系の機能が追加されたせいでちょっと重いですね
xhighを惜しみなく使うことが大事
もう調査タスクもcodexに投げてしばらく待ってるとかなりの精度でできるから、何をしたいか、何に困ってるかを正確に言語化するだけだ
GPUが掴めなくて仕事が進まない
TensorRTへのコンパイル難しすぎる
今度知ってそうな人に会った時に聞けばよいかという気持ちを抑えて、パブリックなチャンネルで質問するという仕事をしている
Lake Formation なんもわからん
インフラの質問したときにGemini の方がChatGPTより正しいことが多くなってきた気がする
coding agentとかskillsとかのおかげでローカルで開発しやすいような基盤作りが大事になっている気がする
なんとなくハンターハンターを読み返し始めたら止まらなくなってしまった(n回目)
最近(以前から?)ZennにAI生成のアウトプットをわずかに手直ししただけのような記事が増えてる気がする
Netflixのtext-to-DSLの事例。hallucinationを防ぐために、使えるフィールド名や値を埋め込みを使ってretrieveして文脈を制約し、その範囲内でLLMにクエリを組み立てさせるという構成にしている
netflixtechblog.com/the-ai-evolu...
最近コーディングエージェントをできるだけ使って自分で書く量を減らす訓練をしてるけど、同じリポジトリにある依存先サービスの仕様を完全に理解しきれず細かい修正指示を繰り返さないといけなかったりする。でもgpt 5.1 codexとかopus 4.5でかなり良いコードが出てくるようになってきた
The Batchのnew year issue、科学的発見のためには分布のtailの予測に強いモデルが必要というのは確かにと思った
www.deeplearning.ai/the-batch/is...
あけましておめでとうございます。今年もよろしくお願いします
同じ課題感です…。やろうと思えばやりようはありますが、考えることが多くて神経使いますよね。
各社どうやってるんですかね?ユーザー向けの重要な機能だとABテストしたいですが、インデックス新規追加するのとか面倒で腰が重くなりがちです…
結局やるんだけど
埋め込みの更新とか考えるのめんどくさいので、最近はあまりベクトル検索作りたくなくなってきてる