lembrando de vir mais pro bluesky a pedido do @gomex.me
mas não tenho muito seguidor nem sei como achar muito a galera por aqui, como faz?
Posts by
Today we are finally out of the private beta, thank you for everyone that help us this far!
Now go play with it at langwatch.ai
⭐️ Star us at github.com/langwatch/la...
Introducing LangWatch Optimization Studio: a UI for supercharging your LLM experimentations, measure quality and optimize with 🧩 DSPy
If you ever played with #DSPy or if you heard about it but haven't started yet, this is the easiest way to begin
oooh is that chakra-ui? good for you!
is it true there is a lot of AI hate here?
ahh então é isso mano! Tá afim de empreender? Manda ver, a ideia é sua tambem, se parece o momento e a pessoa certa é isso, busca investimento junto com ela. Mas se queria estabilidade, aí é outra coisa
"CTO de startup que vai começar ainda" então a pessoa ta te chamando pra ser sócio 50/50, só existe essa possibilidade
mas sem mais detalhe de nada, imagino que nem conheça a pessoa direito?
ARM is the clearly the future, M1 family is eons ahead, and now even my servers I'm moving to M8g (aws arm family), cheaper, faster, less energy, with less and less arch switches headaches every day
bearish on intel
LLMs are big overengineers, it keeps adding more and more workarounds instead of deleting code to solve the problem instead
can someone please bias it on the other direction
okay should I start posting in english here as well? Twitter is moving here and honestly I'd be happy to make this my new default, enough with the tiktok algorithms
não pelo dinheiro dos VC secar, mas só pq não vai mais *precisar* dele
então é isso, se não passarmos essa barreira vai ser só questão de otimizar a eficiencia da performance que já temos agora, como o gemini nano que roda no browser direto
e aí pode ser como voce falou, galera rodando em CPU local, LLMs vão ser só um componente como um mysql que qualquer um instala
Acho que numa direção o dinheiro dos VCs vai secando, numa outra os modelos vão ficando menores e as GPUs mais especializadas (tipo groq), pra rodar até em cpu ou GPU barata com performance de gpt-4, mas aí vão construir modelos maiores também
Então… num sei hahah
É que se pá o que a gente tá construindo pode ser útil pra você testar a performance aí ;)
github.com/langwatch/la...
Meu repo mais curtido é de Clojure sem intenção nenhuma, ficou popular sem querer, e pior que na verdade é compilado com clojurescript e no final publicado como uma lib js 😅
Conseguindo cada vez mais momentos de “ahá saquei! Po isso aí é muito útil!” nas demos do produto, bom demais 😃
Opa, massa! Classificar como assim? Categorização mesmo? Ou extração estruturada? Como tá sendo a performance pelo que vocês tão testando?
Impossível, guardou já era
curte meu repo
Dev desenvolvendo uma boa quantidade de features ou apps que funcionam em cima de LLMs
😭 colé rede
Na real até que demoraram a usar o nome IA, achavam que já ia ser lá no xadrez mas não foi, recentemente ficou sendo machine learning por muito tempo, deep learning, agora a parada tá conversando com a gente já pô, acho justo IA
oh você por aqui também, coincidência, te sigo no xuiter e vim pra cá com essa mesma vibe aí
Moro fora faz 6 anos agora, então no Twitter só posto em inglês, mas decidi, vou usar mais o bluesky e tentar algo diferente aqui
Alguém aí mexendo com LLMs? Algoritmo aqui é assim também só dizer em voz alta?
Como ia subir nas paredes então?
Na minha startup tive logo que mover de open source pra source available, não faz sentido eu deixar algo pra AWS simplesmente vir e roubar de graça, olhando pro meus pares mesma coisa, não tem como ser open source sério e sustentável
Caraca e de 2001 véi, não faz nem sentido jornalístico isso
Bom demais te ver meu parceiro, pelo menos a cada 5 anos tá garantido agora
Foto de Gomex e Rogério rindo em self
Encontrei o @rchaves.bsky.social ! 5 anos depois hahahahah