La compañía de inteligencia artificial Anthropic, reconocida por su compromiso con la ética y la seguridad, ha dado un giro significativo en su enfoque. Recientemente, anunció que comenzará a utilizar las conversaciones de los usuarios para entrenar sus modelos de lenguaje, alineándose así con prácticas ya adoptadas por empresas como OpenAI y Google. Además, ha alcanzado un acuerdo extrajudicial por 1.500 millones de dólares con varios autores y editoriales, tras ser demandada por el uso no autorizado de libros en el entrenamiento de su chatbot Claude.
Este acuerdo, que implica un pago promedio de aproximadamente 3.000 dólares por obra, ha generado un gran revuelo en los sectores cultural y tecnológico. Según el profesor Antonio Pita, experto en IA de la Universitat Oberta de Catalunya (UOC), este movimiento no solo es una resolución legal, sino también una declaración estratégica: "asumir costes hoy para reforzar una narrativa de legitimidad y respeto a la creación". A diferencia de OpenAI, que enfrenta múltiples batallas legales, Anthropic busca proyectar una imagen colaborativa con el ecosistema cultural.
Una IA nacida con vocación ética
Fundada en 2021 por los exdirectivos de OpenAI Dario y Daniela Amodei, Anthropic se estableció con la misión de desarrollar una inteligencia artificial más segura, predecible y transparente. Su modelo se basa en lo que denominaron "Constitutional AI", un enfoque que regula el comportamiento del chatbot Claude mediante principios éticos, en lugar de depender exclusivamente del feedback humano. Esta filosofía se convirtió en su sello distintivo y les permitió posicionarse como una alternativa ética dentro del sector.
A pesar de su compromiso inicial de no utilizar las conversaciones de los usuarios para entrenar sus modelos, ahora han decidido cambiar esa política. "Su visión es que el futuro de la IA no se mide solo por su potencia, sino también por la solidez de sus valores", explica Pita. Claude había sido valorado por quienes buscaban asistentes digitales más conservadores en temas delicados o que mantuvieran coherencia en tareas complejas.
El giro: Claude también quiere tus datos
A partir de ahora, Anthropic utilizará las conversaciones por defecto para mejorar sus modelos, a menos que se indique lo contrario. Este cambio puede interpretarse como una mezcla entre pragmatismo y necesidad competitiva. "No adoptar esta práctica equivalía a jugar con desventaja", señala Pita. Desde un punto técnico, esta decisión podría resultar beneficiosa al permitir entrenar modelos más rápidos y precisos; sin embargo, también plantea un riesgo reputacional considerable.
Aquellos usuarios sensibles a la privacidad podrían ver este cambio como una concesión que diluye la identidad ética que caracterizaba a Anthropic. La clave estará en cómo gestionen esta nueva narrativa: "Si logran demostrar que pueden utilizar datos sin sacrificar transparencia ni control, la maniobra podría fortalecerlos", advierte Pita.
El acuerdo con los autores: estrategia o concesión
Además del cambio en su política sobre datos, Anthropic ha acordado pagar una suma significativa para resolver demandas relacionadas con el uso no autorizado de libros en el entrenamiento del chatbot Claude. Aunque no se ha revelado la lista completa de títulos ni autores involucrados, este acuerdo envía un mensaje claro al ecosistema creativo: Anthropic está dispuesta a pagar para legitimar su modelo.
Pita destaca que mientras OpenAI sigue lidiando con problemas legales abiertos, Anthropic refuerza una narrativa centrada en el respeto hacia la creación literaria. No se trata únicamente de construir el chatbot más potente; es crucial hacerlo respetando los derechos de escritores y editores.
Tensión entre antiguos aliados
Este nuevo rumbo coincide con un deterioro notable en las relaciones entre Anthropic y OpenAI. Ambas compañías comparten orígenes comunes pero han tomado caminos divergentes. La tensión ha escalado al punto donde Anthropic decidió revocar el acceso de OpenAI a la API de Claude debido a acusaciones sobre uso indebido para benchmarking.
Pita comenta sobre esta rivalidad: "Hablar sobre Anthropic frente a OpenAI es observar cómo dos visiones del futuro chocan". Un conflicto que va más allá del ámbito técnico; es una guerra fría tanto tecnológica como filosófica.
Claude frente a ChatGPT: dos visiones diferentes
A medida que OpenAI se consolida como líder del mercado mediante integraciones masivas y colaboraciones estratégicas, Claude sigue un camino más conservador enfocado en la seguridad y alineación ética. Su propuesta se basa principalmente en dos pilares: "Constitutional AI" y capacidad para manejar contextos largos con coherencia.
No obstante, este diferencial ahora enfrenta amenazas debido a la presión competitiva del sector. "No adoptar prácticas mejoradas utilizando datos reales significaba quedar atrás", advierte Pita, quien subraya el riesgo potencial para aquellos usuarios que valoran profundamente la privacidad.
¿Qué gana (o pierde) la persona usuaria?
El uso de datos personales para entrenar modelos genera interrogantes éticos importantes. Si bien puede conducir a respuestas más precisas y adaptadas al contexto real, también plantea riesgos significativos relacionados con la privacidad.
"La presión competitiva acelera la innovación pero puede erosionar derechos si no se regula adecuadamente", apunta Pita. Aunque Anthropic asegura mantener un enfoque responsable respecto al manejo de datos personales, queda por ver cómo evolucionará esta situación en el tiempo.
¿Desviación táctica o cambio de rumbo definitivo?
Los recientes movimientos estratégicos realizados por Anthropic sugieren una transición hacia una inteligencia artificial más competitiva aunque eso implique sacrificar parte de su identidad original. Algunos analistas consideran inevitable este cambio si desean sobrevivir ante gigantes tecnológicos dominantes; otros temen que esto pueda dañar la confianza entre sus usuarios más leales.
"El futuro tanto para Anthropic como para sus competidores dependerá del equilibrio entre ganar competitividad sin erosionar esa confianza fundamental", concluye Pita. Si logran demostrar que pueden usar datos sin perder transparencia ni control sobre ellos, podrían salir fortalecidos; caso contrario, corren el riesgo de perder su diferenciación única dentro del saturado mercado actual.