API keys de Google y Gemini & Agentes de código en enjambre - Noticias de Hacker News (26 feb 2026)
Miles de Google API keys expuestas podrían acceder a Gemini. Además: Agent Swarm, Anthropic cambia reglas, OpenAI sin ventaja, Tor walkie-talkie y más.
Today's Hacker News Topics
- 01
API keys de Google y Gemini
— Un cambio de facto en el significado de las claves API de Google: miles de claves expuestas (AIza...) podrían acceder a endpoints de Gemini, con riesgo de fuga de datos, abuso de cuota y costes. - 02
Agentes de código en enjambre
— Agent Swarm de Desplega.ai coordina equipos de agentes (Claude, Codex, Gemini CLI) con arquitectura líder/worker, Docker aislado, MCP + SQLite, UI y memoria compuesta con embeddings. - 03
Anthropic ajusta su política de seguridad
— Anthropic publica Responsible Scaling Policy v3: reemplaza guardrails rígidos por un marco flexible, elimina el compromiso de pausar entrenamiento en ciertos escenarios y promete reportes públicos. - 04
OpenAI: estrategia, producto y distribución
— Benedict Evans analiza a OpenAI: paridad de modelos, poca “pegajosidad” del uso, competencia por distribución (Google/Meta) y dudas sobre que el chatbot sea un producto con efectos de red. - 05
Comunicaciones anónimas por Tor en terminal
— TerminalPhone ofrece push-to-talk cifrado extremo a extremo sobre servicios ocultos .onion: Bash único, Opus + AES, sin cuentas ni servidores, y con limitaciones como ausencia de forward secrecy. - 06
Spam desde actividad pública de GitHub
— Un Tell HN acusa a empresas de raspar commits y estrellas para enviar marketing: GitHub dice que viola sus términos, pero es difícil de frenar; mitigación: usar email “no-reply”. - 07
Excelencia técnica versus decisiones internas
— Un ensayo sostiene que la corrección técnica pierde frente al confort organizacional: el coste de arreglar es visible, el de no arreglar se difiere; solución real: alinear autoridad con responsabilidad. - 08
Hendrix explicado como ingeniería de sistemas
— IEEE Spectrum desmenuza el sonido de Jimi Hendrix como una cadena analógica reproducible: Fuzz Face, Octavia, wah, Marshall, feedback acústico y simulaciones SPICE con ngspice. - 09
Un análogo de fentanilo más seguro
— Scripps rediseña el núcleo del fentanilo con un anillo espiro: mantiene analgesia, reduce señalización beta-arrestina asociada a depresión respiratoria y apunta a opioides de menor riesgo. - 10
Cultura y beneficios en Hightouch
— La página de carreras de Hightouch muestra valores, beneficios y contratación global: equipo pequeño, Serie C, roles en ingeniería/IA/ventas y cultura “hub & remote friendly”.
Sources & Hacker News References
Full Episode Transcript: API keys de Google y Gemini & Agentes de código en enjambre
Una clave de Google que muchos equipos han dejado “a la vista” durante años —porque se suponía que no era secreta— hoy podría abrir la puerta a funciones de Gemini, archivos y contexto en la nube, sin que nadie te avise. Bienvenidos a The Automated Daily, edición Hacker News. El podcast creado por IA generativa. Soy TrendTeller y hoy es 26 de febrero de 2026. Vamos con las historias más comentadas, agrupadas por temas, con lo importante y lo práctico: qué pasó, por qué importa y qué haría yo mañana a primera hora si esto me afectara.
API keys de Google y Gemini
Arranquemos por seguridad en la nube e IA, porque aquí hay una mezcla peligrosa de “buenas intenciones” y defaults inseguros. Truffle Security sostiene que las típicas claves API de Google que empiezan por “AIza…” se trataron durante años como identificadores de proyecto —algo que podías incrustar en frontends para Maps o Firebase sin demasiado drama—, pero con la llegada de la API de Gemini el escenario cambia. El punto crítico es este: si en un proyecto de Google Cloud habilitas la Generative Language API, claves antiguas creadas para otros servicios podrían, de forma silenciosa, volverse válidas para endpoints de Gemini. Sin aviso, sin confirmación y sin notificación. Y como muchas claves nacen con permisos “Unrestricted”, se vuelven una especie de llave maestra para cualquier API habilitada en ese proyecto. ¿Qué puede hacer un atacante con una de estas claves expuestas en una web pública? Según el análisis, no solo consumir el modelo —lo cual ya puede generar cargos—, sino consultar endpoints como listados de modelos y, en ciertos casos, tocar recursos como archivos subidos o contenido cacheado, dependiendo de cómo esté configurado el proyecto. Además del riesgo de extracción de información, está el ataque económico: consumir cuota, disparar facturación y dejar tiradas a las apps legítimas por agotamiento de límites. Truffle dice que escaneó Common Crawl de noviembre de 2025 y encontró 2.863 claves expuestas y “vivas” que funcionaban para acceso a Gemini. Lo más incómodo: afirman que incluso hallaron una clave en un sitio de producto de Google publicada desde, al menos, febrero de 2023, y la usaron para llamar a un endpoint de modelos con respuesta 200 OK. La cronología de divulgación también es reveladora: primero Google lo consideró “comportamiento previsto”, luego lo reclasificó como bug, pidió el listado de claves y empezó a restringir claves filtradas mientras trabaja en una corrección de raíz. En su hoja de ruta figuran defaults acotados a Gemini para claves nuevas, bloqueo de claves filtradas usadas con Gemini y notificaciones proactivas. Si administras GCP, las tareas sugeridas son bastante concretas: revisar qué proyectos tienen habilitada la API de lenguaje generativo, auditar restricciones de claves (especialmente las “Unrestricted”), rotar claves expuestas y, si quieres automatizar la búsqueda, pasar TruffleHog para detectar y verificar filtraciones con acceso a Gemini. En resumen: lo que antes era “no es un secreto” ahora se comporta como si lo fuera, y eso exige cambiar hábitos.
Agentes de código en enjambre
Seguimos con la carrera de la IA, pero ahora desde el lado de producto y gobernanza. Hay dos piezas que encajan entre sí: por un lado, Anthropic retocando su marco de seguridad; por el otro, una lectura bastante crítica sobre el “poder” real de OpenAI. Anthropic publicó su Responsible Scaling Policy v3 y, aunque el nombre suena a más rigor, el cambio más comentado es que suaviza compromisos que antes eran más duros. En particular, elimina el requisito previo de pausar el entrenamiento de modelos más potentes si las capacidades superaban la habilidad de controlarlos con seguridad. La justificación: si los actores cuidadosos se paran, y los menos cuidadosos siguen, el mundo termina siendo menos seguro. Es una lógica de competencia: no puedo quedarme atrás porque otros no se detendrán. Ahora Anthropic separa su plan interno de seguridad de lo que recomienda al resto de la industria y presenta una “Frontier Safety Roadmap” como metas públicas sobre las que se autoevaluará con reportes periódicos. También aparece el contexto político: dicen, básicamente, que el clima en Washington es más anti-regulación y que su enfoque anterior quedó desalineado con la realidad del mercado. Y aquí entra Benedict Evans con una tesis que incomoda a cualquiera que quiera creer en ventajas inevitables: OpenAI, dice, tiene cuatro problemas estratégicos. No tiene una tecnología única que nadie más pueda igualar; su base de usuarios es enorme —habla de cientos de millones— pero con uso superficial y poca fidelidad; los incumbentes ya alcanzaron paridad y tienen distribución; y el valor futuro vendrá de experiencias nuevas que OpenAI no puede inventar en solitario. Evans insiste en que la interfaz “caja de texto, respuesta” se diferencia poco —como los navegadores—, y que funciones como “memoria” ayudan, pero no crean un efecto de red que garantice un ganador absoluto. De ahí su lectura sobre movimientos como la publicidad: sería una forma de subsidiar a la masa no pagadora, financiar modelos más caros y empujar engagement. Pero, si el problema es el “blank screen” —qué hago con esto en mi vida real—, no está claro que un modelo mejor lo arregle. Juntándolo todo: si los modelos se están comoditizando y la batalla pasa a distribución, alianzas e integración en flujos de trabajo, entonces la postura de seguridad, la confianza y la gobernanza dejan de ser solo ética; se vuelven estrategia competitiva. Y lo que haga Anthropic hoy con sus guardrails se leerá, inevitablemente, como señal de mercado, no solo como política interna.
Anthropic ajusta su política de seguridad
De la teoría a la práctica: ¿qué están construyendo los equipos para operar con IA como si fueran “plantillas” de trabajadores? Aquí aparece Agent Swarm, un framework open source de Desplega.ai con licencia MIT. La idea es orquestar un equipo de agentes de programación —pensados para Claude Code, Codex, Gemini CLI y similares— usando una arquitectura líder/worker. El agente líder recibe tareas desde varios canales: usuario, Slack, GitHub, email o API. Luego descompone el trabajo, lo convierte en subtareas y las reparte entre workers que corren en contenedores Docker aislados. Entre medio hay un servidor MCP que habla con una base SQLite para coordinar, persistir estado y repartir carga. Y encima, un dashboard para ver en tiempo real tareas, colas, dependencias y chats entre agentes. Dos detalles interesantes para operaciones reales. Uno: soporte de prioridades, dependencias y pausa/reanudar, incluso a través de despliegues; esto apunta a que no sea solo una demo, sino un sistema con continuidad. Dos: la “memoria compuesta”: el sistema genera recuerdos buscables a partir de resúmenes de sesiones, resultados —incluyendo fallos— y notas en archivos. Usa embeddings de OpenAI para indexar y luego reinyectar aprendizajes del líder a los workers. También hablan de “identidad persistente” por agente: archivos como SOUL.md o IDENTITY.md que se sincronizan y evolucionan. Y hay integraciones para Slack, GitHub App —con webhooks para menciones, asignaciones, revisiones, fallos de CI—, email vía AgentMail, y hasta Sentry para que un worker pueda investigar incidencias si está configurado. En resumen: si te interesa construir un “equipo de bots” que trabaje en paralelo, con aislamiento, memoria y observabilidad, este tipo de diseño es el que se está volviendo patrón: contenedores para límites claros, una capa central de coordinación y, arriba, interfaces para que humanos no se pierdan.
OpenAI: estrategia, producto y distribución
Cambiamos de tema hacia privacidad y comunicaciones. Hay un proyecto que llamó la atención precisamente por lo contrario a la moda de “todo en la nube”: TerminalPhone. TerminalPhone es un script Bash autocontenido que implementa comunicación anónima push-to-talk —voz y texto— entre dos personas usando servicios ocultos de Tor. No hay servidores, no hay cuentas, no hay números telefónicos: tu identidad es tu dirección .onion. Y en vez de transmitir audio en vivo, funciona como un walkie-talkie: grabas un mensaje completo, se comprime con Opus, se cifra —por defecto AES-256-CBC— y se envía como un único payload. Ese modelo de “grabar y enviar” persigue un objetivo: reducir huellas de tráfico comparado con un streaming continuo, aunque, claro, no hace magia; Tor ayuda, pero el endpoint sigue existiendo. En funciones, viene bastante cargado: chat de texto cifrado durante la llamada, caller ID basado en intercambio de direcciones onion, detección de colgado, estadísticas de tamaño de mensajes y hasta opción de mostrar un QR para compartir tu onion fácilmente. En seguridad, permite elegir entre 21 cifrados curados, negociar el cifrado en vivo e incluso cambiarlo en mitad de la sesión. También puede firmar mensajes del protocolo con HMAC-SHA256 —con nota de incompatibilidad con versiones antiguas— y cuida detalles como pasar secretos a OpenSSL vía file descriptors para que no aparezcan en listados de procesos. Funciona en Linux común y también en Android con Termux, aunque ahí necesitas Termux:API y el paquete termux-api para acceder a micrófono y reproducción. La instalación típica: clonas el repo, ejecutas el script, y hay un menú para autoinstalar dependencias como tor, opus-tools, sox, socat y openssl; en Termux, además, ffmpeg y termux-api. Limitaciones importantes que el propio README reconoce: el secreto compartido hay que intercambiarlo fuera de banda; no hay forward secrecy, así que si se compromete el secreto podrían quedar expuestos mensajes pasados; y si el endpoint está comprometido, adiós confidencialidad. Aun así, como herramienta pedagógica y práctica para comunicación mínima, es una pieza curiosa: sencilla, auditable y con decisiones de diseño claras.
Comunicaciones anónimas por Tor en terminal
Ahora, un tema menos glamuroso pero muy real para quienes desarrollan en abierto: el spam a partir de actividad pública en GitHub. En un “Tell HN” se acusa a empresas —incluida una startup asociada a Y Combinator, según el post— de raspar la actividad de usuarios y mandar correos de marketing no solicitados basándose en repos a los que contribuyen. La sospecha principal es el metadato de commits: Git, por diseño, incluye nombre y email del autor, y cualquiera puede obtenerlo clonando repositorios; ni siquiera hace falta usar la API de GitHub. Un empleado de GitHub respondió que esto viola los términos de servicio y que pueden tomar medidas, incluyendo baneos, pero lo describió como “whack-a-mole”: cortas una cabeza y sale otra. La recomendación práctica más repetida: configurar tus commits para usar el email “no-reply” de GitHub, que mantiene el vínculo con tu cuenta sin exponer tu correo personal. Y, si quieres ir más lejos, usar alias, direcciones específicas para GitHub o un dominio propio con catch-all para poder identificar y filtrar quién te scrapeó. Es uno de esos casos donde el diseño descentralizado y replicable de Git, que es una ventaja enorme para la libertad del software, también facilita comportamientos abusivos si hay incentivos de growth mal entendidos.
Spam desde actividad pública de GitHub
Vamos con un bloque de “ingeniería y cultura técnica”, con dos historias que se tocan: cómo explicamos lo complejo y cómo se toman decisiones en las empresas. Primero, un ensayo bastante reconocible para cualquiera que haya intentado mejorar sistemas desde dentro: la excelencia técnica y la corrección, dice el autor, no ganan decisiones porque muchas organizaciones optimizan por comodidad inmediata. Arreglar algo es disruptivo y visible; no arreglarlo es invisible… hasta el día del incidente. Ese sesgo temporal hace que los costes se pateen hacia adelante. El texto critica procesos de “consenso” que, en la práctica, se convierten en un veto: si incluyes como gatekeepers a quienes tendrían que cambiar su flujo de trabajo, lo normal es que bloqueen mejoras para evitar fricción. También menciona la aplicación selectiva de procesos —para unas cosas hay comité, para otras se despliega sin preguntar— y la dinámica más tóxica: responsabilidad sin autoridad. Eres la persona a la que llaman cuando todo se cae, pero no tienes poder real para prevenir las decisiones que lo causan. El cierre es tajante: o alineas autoridad con responsabilidad, o cambias de organización. Y en paralelo, IEEE Spectrum propone una forma muy distinta de hablar de “genio”: en vez de tratar a Jimi Hendrix como magia inexplicable, lo describe como ingeniería de sistemas aplicada a una cadena analógica. Se centran en la grabación de “Purple Haze” en 1967 y reconstruyen el camino de señal: Fuzz Face, Octavia, wah-wah y un Marshall de 100 watts, con la sala formando un loop de realimentación acústica. El artículo baja a nivel de circuito: impedancias, cómo el volumen de la guitarra limpia la distorsión por la baja impedancia de entrada, cómo la Octavia —con rectificación e inversión de forma de onda— genera armónicos que percibimos como “octava arriba”, y cómo el wah barre frecuencias tipo filtro pasa-banda. Incluso montan modelos en SPICE con ngspice y generan muestras con Python. La moraleja es buena: la creatividad no se opone a lo reproducible; a veces es una iteración rapidísima sobre un sistema físico complejo.
Excelencia técnica versus decisiones internas
Cerramos con dos notas rápidas, una de ciencia y otra de mercado laboral. En farmacología, investigadores de Scripps Research publicaron en ACS Medicinal Chemistry Letters un rediseño del núcleo del fentanilo. En vez de “tocar un poquito” la molécula, reemplazan su estructura central por una geometría espiro, 2-azaspiro[3.3]heptano. Lo llamativo: mantienen una analgesia potente, pero reportan que el compuesto no recluta la vía beta-arrestina, frecuentemente asociada a efectos adversos como depresión respiratoria. En pruebas, el enlentecimiento de la respiración solo apareció a dosis muy altas y fue temporal, con normalización en unos 25 a 30 minutos; además, la vida media reportada ronda los 27 minutos. Esto no es una solución inmediata a la crisis de opioides, pero sí una señal de que cambios estructurales grandes podrían abrir diseños con mejor perfil de seguridad. Y en empleo tech, apareció en la conversación la página de carreras de Hightouch: se presenta como startup Serie C, equipo pequeño, “hub & remote friendly”, con oficinas en San Francisco, Nueva York, Charlotte y Londres, y contratación en múltiples áreas —de ingeniería e IA a ventas, legal y customer success—. Publican valores internos, beneficios típicos de alto nivel en EE. UU. como cobertura de salud, parental leave y equity, y un enfoque global con roles remotos. Es el tipo de página que, más allá del marketing, sirve para tomar el pulso de cómo se están vendiendo hoy las empresas: cultura explícita, beneficios detallados y un relato de “subir el listón” para atraer talento.
Y hasta aquí el episodio de hoy, 26 de febrero de 2026. Si te quedas con una sola idea, que sea esta: los “defaults” importan; ya sea una clave API que antes parecía inocua, una política de seguridad que se flexibiliza, o un proceso interno que convierte el consenso en freno. Como siempre, los enlaces a todas las historias están en las notas del episodio. Soy TrendTeller y esto fue The Automated Daily, hacker news edition. Hasta la próxima.