La IA es solo una herramienta, con miles de usos posibles.
La IA no es buena ni mala, depende de cómo la usemos.
Así que quizá deberíamos dejar de hacer afirmaciones genéricas sobre la IA y centrarnos en aprender a utilizarla para cosas positivas.
Posts by ONGs.Top
La IA puede ser una cosa y exactamente la contraria, dependiendo de cómo la utilices.
Por ejemplo, la IA puede ser un riesgo para la seguridad, pero también puede ayudar a reducir los riesgos de seguridad (utilizando la IA para revisar tu infraestructura tecnológica).
Pero eso la hace también peligrosa.
Este es el futuro de la IA. Hay que conocer las distintas opciones bien para elegir nuestro balance entre seguridad y funcionalidad. Tenemos qué herramientas y tareas concretas nos aportan un ratio seguridad/resultados que nos compense.
OpenClaw es el futuro (y da miedo también).
Es una plataforma abierta y gratuita para crear tus propios agentes de IA y automatizar tareas.
Es fácil de usar y muy flexible. Puedes añadirle cientos de "habilidades" creadas por otros usuarios y empresas.
Pero luego también hicieron pruebas con 10.000 humanos. El 28,5% falló.
Algunos modelos de IA fueron más fiables que los humanos (en general) para esto.
Y se puede extrapolar a otras tareas: Debemos probar, no asumir que los humanos son perfectos o elegir IA sin testear.
Hablamos mucho sobre riesgos y errores de la IA, pero ¿son los humanos realmente mejores?
Recientemente hicieron una prueba con un prompt de sencillo: "Quiero lavar mi coche. El lavadero está a 50 metros. ¿Debería ir andando o en coche?".
42 de 53 modelos de IA fallaron.
Otros trabajos seguirán el mismo patrón pronto.
Los agentes de IA serán probablemente la herramienta más importante para nuestro trabajo en unos años (quizá meses para algunas tareas).
Fuente: https://metr.org/blog/2026-02-24-uplift-update/
El impacto de los agentes de IA en programación es tan grande que los investigadores están teniendo problemas para conseguir programadores dispuestos a dejar de usar la IA en parte de su trabajo.
¡Incluso pagándoles 50 dólares adicionales por cada hora sin IA!
Existe una gran demanda de "Asistentes Personales de IA" que te ayuden con todo tipo de tareas (haciendo cosas de forma autónoma, no solo chatear contigo). Miles compraron un Mac Mini solo para probar OpenClaw, un sistema experimental y arriesgado (dicho por su propio creador).
Tienes que encontrar tu equilibrio entre productividad y seguridad. OpenClaw es gratuito y abren cientos de posibles casos de uso, pero también riesgos importantes. Alternativas comerciales como Claude Cowork no son gratuitas y son más limitadas, pero también más seguras.
Tienes que probar nuevas herramientas para encontrar nuevas oportunidades, pero nunca con datos sensibles. Minimiza los archivos y funciones que das a cada herramienta o agente de IA, no te limites a dar acceso a todo esperando que el agente sea "responsable".
Necesitas entender qué puede hacer cada sistema de IA y definir límites usando los ajustes de las herramientas o código. Limitarse a indicar mediante prompts "haz esto" o "no hagas esto" no es una medida de seguridad fiable.
Los agentes de IA nos traen oportunidades, pero también riesgos. Incluso para expertos en seguridad de IA.
Una investigadora de seguridad de Meta empezó a usar un sistema de agentes (OpenClaw) en su correo y el agente borró miles de emails por error.
Algunas conclusiones:
¿Cuáles son tus "quickwins" de IA favoritos para ONGs?
Por favor, comparte tus ideas favoritas. ¡Hagamos una gran lista! 🙂
Y esto no es solo para marketing. Casi todos los departamentos en una ONG tienen contenido que puede reciclarse o transformarse (informes, notas de reuniones, encuestas, formaciones internas, etc.)
La IA funciona cuando tiene información, no instrucciones breves y genéricas.
La mejor forma de usar la IA no es "escríbeme un post sobre X".
Es: "esto lo que ya tengo, conviértelo en algo nuevo".
Reutilizar contenido existente es más rápido y más fiable que empezar de cero. Porque ya tiene tu voz y tus datos. Solo le estás dando una nueva forma.
Aquí tienes algunas variables que deberías incluir para obtener una estrategia que realmente funcione:
• Datos de los donantes
• Stack tecnológico
• Recursos disponibles
• Voz de marca
Cuando añades restricciones, la IA se vuelve creativa.
Cuando añades contexto, la IA se vuelve precisa.
Deja de recibir consejos genéricos de la IA
"Escribe un plan de fundraising para una ONG".
Si escribes un prompt así, te mereces el contenido genérico y robótico que recibes a cambio.
He decidido predicar con el ejemplo: acabo de lanzar un servicio de gestión de Google Ad Grants por 99 €/mes.
Gracias a la IA, ahora puedo ayudar a ONGs que no podían permitirse un consultor y estaban desperdiciando sus 120.000$ al año de Ad Grants.
La IA debería bajar los precios de muchos servicios.
Si una tarea lleva un 80% menos de tiempo gracias a la IA, ¿por qué el servicio sigue costando lo mismo?
Si no puedes responder a eso, elimina la pregunta.
Antes de tu próxima encuesta, pega el borrador en ChatGPT y pregunta:
"Revisa estas preguntas. Marca las que no parezcan accionables. Dime qué preguntas debería eliminar para reducir la fatiga de los encuestados"
Deja de acumular "Datos Zombie" en tu ONG 🧟♂️
A menudo hacemos preguntas porque "estaría bien saberlo", no porque sirvan para tomar decisiones.
Antes de añadir una pregunta a tu próxima encuesta, pregúntate:
"Si la respuesta es X, ¿qué haremos? Si es Y, ¿qué cambiará?"
Una vez que construyes el sistema, el agua fluye de forma instantánea y automática, sin que tengas que mover un dedo.
No te limites a usar herramientas de IA. Conéctalas. Crea flujos automatizados con IA, usando plataformas como Zapier, n8n, Lindy o Claude Code.
Deja de usar ChatGPT como si fuera un cubo. Empieza a construir tuberías.
Escribir un prompt en ChatGPT es como ir a por agua con un cubo. Te soluciona cosas, pero es todo manual y acaba cansando.
La automatización con IA es diferente. Se trata de instalar tuberías.
Quieres innovar. Pero tu ONG tiene una junta reacia al riesgo.
En lugar de presentar una gran idea "aterradora" a la junta, usa ChatGPT para generar 10 experimentos pequeños. Elige los que tengan menos riesgo.
Pruébalos. Presenta datos.
Framework para innovar en ONGs (úsalo en tus prompts de ChatGPT):
🟢 𝗥𝗶𝗲𝘀𝗴𝗼 𝗯𝗮𝗷𝗼
Experimentos que puedes probar la semana que viene.
🟡 𝗜𝗻𝘃𝗲𝗿𝘀𝗶ó𝗻 𝗺𝗲𝗱𝗶𝗮
Ideas que merece la pena explorar.
🔴 𝗚𝗿𝗮𝗻𝗱𝗲𝘀 𝗮𝗽𝘂𝗲𝘀𝘁𝗮𝘀
Ideas transformadoras que necesitan una inversión significativa.
Pero la cuestión es esta: tu política debe equilibrar dos fuerzas opuestas.
• ¿Demasiado restrictiva? Tu equipo innovará a escondidas (o no lo hará en absoluto).
• ¿Demasiado permisiva? Arriesgas la confianza de los donantes y la integridad de tu misión.
La mayoría de las ONGs saben que necesitan una política de IA, pero pocas saben por dónde empezar.
Esto es lo que tu política debe responder:
• ¿Qué herramientas de IA podemos usar?
• ¿Qué datos podemos introducir en ellas?
• ¿Cómo informamos sobre el uso de la IA?
En unos 20 minutos construí una herramienta sencilla (usando 𝗚𝗲𝗺𝗶𝗻𝗶 𝗚𝗲𝗺𝘀) que analiza textos bajo un marco de inclusividad.
La IA califica los hallazgos por nivel de gravedad (Crítico vs. Sutil) y explica por qué una frase específica podría tener un impacto negativo.
𝗨𝘀𝗮 𝗹𝗮 𝗜𝗔 𝗽𝗮𝗿𝗮 𝗿𝗲𝗱𝘂𝗰𝗶𝗿 𝘀𝗲𝘀𝗴𝗼𝘀 (𝗻𝗼 𝗽𝗮𝗿𝗮 𝗮𝘂𝗺𝗲𝗻𝘁𝗮𝗿𝗹𝗼𝘀)
𝗦𝗲 𝗵𝗮𝗯𝗹𝗮 𝗺𝘂𝗰𝗵𝗼 𝘀𝗼𝗯𝗿𝗲 𝗲𝗹 𝘀𝗲𝘀𝗴𝗼 𝗲𝗻 𝗹𝗮𝘀 𝗵𝗲𝗿𝗿𝗮𝗺𝗶𝗲𝗻𝘁𝗮𝘀 𝗱𝗲 𝗜𝗔 (que sin duda existe, ya que se entrenan con contenido sesgado creado por humanos), p𝗲𝗿𝗼 𝗻𝗼 𝘀𝗼𝗯𝗿𝗲 𝗰ó𝗺𝗼 𝗽𝗼𝗱𝗲𝗺𝗼𝘀 𝘂𝘀𝗮𝗿 𝗹𝗮 𝗜𝗔 𝗽𝗮𝗿𝗮 𝗱𝗲𝘁𝗲𝗰𝘁𝗮𝗿 𝘆 𝗰𝗼𝗿𝗿𝗲𝗴𝗶𝗿 𝗻𝘂𝗲𝘀𝘁𝗿𝗼𝘀 𝗽𝗿𝗼𝗽𝗶𝗼𝘀 𝘀𝗲𝘀𝗴𝗼𝘀.