El dilema de Claude Mythos, la IA de Anthropic: cuando el poder se vuelve un riesgo.
La versión preliminar del modelo encendió alarmas en Estados Unidos y Europa por su aparente capacidad para explotar fallas de ciberseguridad desconocidas.
La versión preliminar del modelo encendió alarmas en Estados Unidos y Europa por su aparente capacidad para explotar fallas de ciberseguridad desconocidas.
Detrás de la marcha atrás apareció una pregunta incómoda para toda la industria: ¿qué pasa cuando una herramienta promete resolver problemas y al mismo tiempo puede agravarlos?
La compañía europea ganó terreno entre gobiernos y grandes empresas con modelos de código abierto y servicios a medida.
Anthropic planea desplegar 3,5 gigavatios de capacidad de cómputo en centros de datos de EE.UU., apoyada en TPUs de Google y Broadcom, mientras crece la demanda de Claude y persisten las dudas sobre el ritmo y el alcance de su avance en la carrera global de la IA.
Documentos presentados ante la SEC revelan que Lunate tomó una participación minoritaria en Insight Partners, una de las firmas más influyentes de Silicon Valley. La jugada expone el avance del dinero emiratí en el negocio global de las startups.
Gigantes tecnológicos premian el uso intensivo de asistentes para programar, convencidos de que ese gasto acelera el desarrollo y les otorga una ventaja frente a una competencia cada vez más feroz.
El gobierno de Estados Unidos catalogó a la empresa como riesgo para la seguridad nacional luego de que rechazara eliminar restricciones que impiden vigilancia masiva y armamento autónomo. El episodio expuso el vacío legal que rodea a estas tecnologías.
La última apuesta de Anthropic aceleró la inquietud de los inversores y profundizó las ventas en el sector tecnológico. Grandes compañías registraron retrocesos tras el anuncio, en medio de temores por el impacto de la inteligencia artificial en sus negocios.
La nueva ronda de financiamiento llevó a la compañía de inteligencia artificial a cifras récord y catapultó el patrimonio de los hermanos Dario Amodei y Daniela Amodei, junto a otros cinco socios, en medio de la pulseada con OpenAI y los cruces públicos con Sam Altman y Elon Musk.
El sacudón bursátil alcanzó a gigantes de Estados Unidos, Europa y Asia tras la presentación de nuevas funciones de Claude, el chatbot de Anthropic. La amenaza de automatización vuelve a golpear al sector, entre temores por despidos y dudas sobre el rol de la IA en servicios clave.
Bajo presión por reducir costos y acelerar trámites, clínicas, aseguradoras y laboratorios prueban asistentes inteligentes capaces de redactar autorizaciones médicas e interpretar historiales clínicos. Pero el desafío va más allá de la precisión: se trata de lograr que el sistema confíe.
Mike Krieger lidera la estrategia para que Claude AI gane terreno entre gigantes, en una carrera por llevar la inteligencia artificial generativa a cada rincón del trabajo técnico.
La startup de inteligencia artificial recibirá inversiones adicionales por US$ 15.000 millones de sus nuevos socios, en un negocio que refuerza la carrera por controlar la infraestructura tecnológica que sostiene los modelos más avanzados.
La empresa comenzará por construir centros de datos en Texas y Nueva York, con planes de crear miles de empleos y robustecer la infraestructura tecnológica en medio de una carrera global marcada por inversiones récord.
Aunque las promesas suelen apuntar a cambios estructurales o revoluciones creativas, la mayoría de los usos cotidianos de la inteligencia artificial tienen más que ver con automatizar tareas básicas, resolver dudas rápidas y producir textos en tiempos ajustados.
La empresa, ahora rebautizada como Irregular, se especializa en detectar fallas en modelos antes de que salgan al mercado. Su equipo, formado por hackers éticos y ex campeones de debate, ya puso a prueba a Claude, GPT-5 y otros sistemas que tienen todo para revolucionar el futuro digital.
El arreglo millonario, que deberá ser aprobado por la Justicia, cierra un conflicto iniciado por autores y editoriales que acusaron a la compañía de usar obras literarias sin autorización para entrenar a su chatbot.
Los chats que los usuarios creían bajo resguardo quedaron expuestos en buscadores, a pesar de las garantías de la empresa. Entre los diálogos filtrados, había datos laborales, nombres propios e instrucciones internas del equipo técnico.
El informe de Anthropic revela cómo las herramientas de inteligencia artificial pasaron de ser un recurso técnico a convertirse en cómplices activos de ataques sofisticados, reduciendo las barreras de entrada para estafadores sin formación especializada y potenciando delitos a gran escala.