Corrigindo alguns erros no AI Chat na hora de criar um plano para aprovação do usuário.
Foda de lidar com LLMs locais é que cada uma trabalha de um jeito, então eu preciso inverter a situação e indicar todas elas como eu espero receber o resultado, ao invés de tratar o resultado de cada uma
Posts by marcelo matz
a relação Bebê X Compras é real
desde q meu filho nasceu eu não comprei mais nada pra mim, nem uma camiseta
e a cadeira é true, vai ficar quebrada pq não vou comprar outra agora, não dá, simplesmente não dá
Alguém me faz um pix doação de R$ 1000,00 para a compra de uma cadeira nova.
A minha quebrou e como o bebê ainda tá com 8 meses, comprar uma cadeira nova só daqui uns 4 anos.
hora de bolar umzin
o
mamão
vai
na
cabeça
Eu morei muitos anos no interior do RS, em Tapes, onde eu encontrava com ele na rua no início dos anos 2000.
O cara era uma lenda!
hj baleiou
se bem que agora o whatsapp tem o recurso de transcrever a msg, porém dependendo do que a pessoa falar fica complicado de traduzir
eu respondo em texto para todo mundo que manda áudio: manda em texto, meu telefone não tá reproduzindo áudio, tá com defeito
Bluesky é tipo uma comunidade de interior pacata onde você pode ficar na frente de casa enquanto lê as notícias e acena para os vizinhos, alguns passam na rua pelados mesmo mas tudo bem ninguém julga
eu esqueço que seguir a galera do RS é do nada a pessoa mudar o estilo, a escrita e o perfil para falar de Inter ou Grêmio como se fosse um neandertal.
o lanchinho pós treino não vai para o estômago, vai direto pro coração em forma de amor
O Assistente AI que implementei no chat tá dando conta de fazer o buffer e cuidar do manejo do tá sendo criado ali. Isso me enche de orgulho, na moral mesmo, pq deu trabalho pra cacete até agora.
Interessante é ele seguir as etapas mesmo sobrecarregado.
Eu dei um prompt muito pomposo para o QWEN 3.5 27b criar uma aplicação web.
O que já é demorado com modelos de 4b rodando no meu ambiente, com 27b eu rodei esperando dar erro, mas surpreendentemente o meu editor, que tem vários meios de tratar essa lentidão e concorrência, tá se saindo MUITO bem
Eu só to rodando um modelo de 27B de parâmetros na minha RTX 3080 de 10GB de VRAM.
O modelo tá rodando no Ollama e eu to consumindo via API do Ollama no meu editor.
Meu PC tá acocando, coitado, mas tá dando boa. Eu ainda vou implementar esse novo algoritmo de compressão que o Google lançou agora
Brazil’s fugitive former intelligence chief and lawmaker Alexandre Ramagem, who faces a 16-year prison sentence in Brazil for his alleged involvement in a coup plot with far-right ex-President Jair Bolsonaro, has been living in exile in Florida in recent months. https://cnn.it/3OcPIyN
eu to em busca de uma responsividade complicada de se conseguir quando se trabalha com LLMs locais, de baixa capacidade, de tamanhos mais simples que rodam em ambientes domésticos.
complicado, mas possível
eu ia responder uma bobagem mas falta intimidade kk
e aí
esse sabe fazer negócios: o contrato mais caro do evento o cara levou um laptop de equipamento. Não precisou nem ligar na tomada, só fez streaming da tela e já eras, deu play e fez o play
cara
as pessoas tão baixando repositórios de agentes / skills / workflows do github e executando sem saber o que é
tem trocentos repos com arquivos .bat
tem milhares de scripts python
tem repo com código binário compilado que não dá pra saber o que faz
povo doido, gente
youtuber que ainda pausa o vídeo para pedir like e inscrição no canal, vive em 2006
Anthropic e Google oferecem SDK Go para quem deseja implementar integração com os modelos deles.
OpenAI tem SDK somente para Python e Typescript. Triste ter que integrar via API :'(
fui no RiR e enquanto esperava o show deles teve Avril Lavigne
resolvi o erro de um jeito fácil fácil
a frase do MSN passando: K E A N E Greatest Hits Full Album ~ Best Songs Of K E A N E ~ Soft Rock Playlist
como vcs organizam o use cases de vcs?
marcelo
é redundante falar q a entidade está na camada de domínio
na minha camada de Domínios eu tenho uma entidade que cuida de sinais. O editor tem 4 principais áreas de trabalho e cada uma delas pode (e vai) emitir sinais.
o q to fazendo é interceptar cada sinal para enviar isso como um evento semântico para o LLM
é tipo o q langchain faz em Python
tá aí um mercado que eu acho que consegue sobreviver mais do que o mercado de baladas padrão
se fizessem festas temáticas, sazonais, em diferentes locais para incorporar a temática, seria daora demais