OpenAI está cometiendo los mismos errores que Facebook. Y renuncié
COMPARTIR
La erosión de los principios de Sam Altman para maximizar la participación puede estar ya en marcha
Por Zoë Hitzig, The New York Times.
Esta semana, OpenAI empezó a probar anuncios en ChatGPT. Y también renuncié a la empresa después de pasar dos años como investigadora ayudando a dar forma a cómo se construían y se fijaban los precios de los modelos de IA y guiando las primeras políticas de seguridad antes de que las normas estuvieran grabadas en piedra.
Alguna vez creí que podía ayudar a las personas que construían la inteligencia artificial a adelantarse a los problemas que esta crearía. Esta semana se confirmó mi lenta constatación de que OpenAI parece haber dejado de plantear las preguntas que intenté ayudar a responder.
No creo que los anuncios sean inmorales o poco éticos. El funcionamiento de la IA es caro y los anuncios pueden ser una fuente fundamental de ingresos. Pero tengo profundas reservas sobre la estrategia de OpenAI.
Durante varios años, los usuarios de ChatGPT han generado un archivo de franqueza humana que no tiene precedentes, en parte porque la gente creía que estaba hablando con algo que no tenía segundas intenciones. Los usuarios interactúan con una voz adaptativa y conversacional a la que han revelado sus pensamientos más privados. La gente les cuenta a los chatbots sus temores médicos, sus problemas de pareja y sus creencias sobre Dios y el más allá. La publicidad construida sobre ese archivo crea un potencial para manipular a los usuarios de formas que no tenemos las herramientas para comprender, y mucho menos para prevenir.
Mucha gente enmarca el problema de la financiación de la IA como la elección del menor de dos males: que el acceso a la tecnología transformadora solo sea para un grupo selecto de personas lo bastante ricas como para pagarla o aceptar la publicidad aunque ello suponga explotar los miedos y deseos más profundos de los usuarios para venderles un producto. Creo que esa es una elección falsa. Las empresas tecnológicas pueden buscar opciones que podrían mantener estas herramientas disponibles de manera amplia al tiempo que limitan los incentivos de cualquier empresa para vigilar, perfilar y manipular a sus usuarios.
OpenAI afirma que respetará sus principios para publicar anuncios en ChatGPT: los anuncios estarán claramente etiquetados, aparecerán al final de las respuestas y no influirán en ellas. Creo que la primera iteración de anuncios probablemente seguirá esos principios. Pero me preocupa que las siguientes iteraciones no lo hagan, porque la empresa está construyendo un motor económico que crea fuertes incentivos para saltarse sus propias normas. (The New York Times ha demandado a OpenAI por infracción de los derechos de autor del contenido de noticias relacionadas con los sistemas de IA. OpenAI ha negado esas acusaciones).
En sus primeros años, Facebook prometió que los usuarios controlarían sus datos y podrían votar sobre los cambios de política. Esos compromisos se erosionaron. La empresa eliminó las votaciones públicas sobre políticas. La Comisión Federal de Comercio descubrió que los cambios en materia de privacidad, promocionados como una forma de darles a los usuarios más control sobre sus datos, habían hecho lo contrario y, de hecho, habían hecho pública información privada. Todo esto ocurrió gradualmente bajo la presión de un modelo publicitario que recompensaba la participación de los usuarios por encima de todo.
La erosión de los principios de OpenAI para maximizar la participación puede estar ya en marcha. Va en contra de los principios de la empresa optimizar la participación de los usuarios únicamente para generar más ingresos publicitarios, pero se ha informado que la empresa ya optimiza de todos modos para los usuarios que están activos a diario, lo que probablemente fomenta que el modelo sea más adulador y obsequioso. Esta optimización puede hacer que los usuarios se sientan más dependientes de la IA como apoyo en sus vidas. Hemos visto las consecuencias de la dependencia, entre las que están psiquiatras que documentan casos de psicosis por chatbot y acusaciones de que ChatGPT reforzó la ideación suicida de algunos usuarios.
Aun así, los ingresos por publicidad pueden ayudar a garantizar que el acceso a las herramientas de IA más potentes no sea exclusivo de quien pueda pagarlas. Por supuesto, Anthropic dice que nunca publicará anuncios en Claude, pero Claude tiene una pequeña fracción de los 800 millones de usuarios semanales que tiene ChatGPT; su estrategia de ingresos es completamente diferente. Además, las suscripciones de nivel superior para ChatGPT, Gemini y Claude cuestan ahora entre 200 y 250 dólares al mes, más de 10 veces el costo de una suscripción estándar a Netflix para un solo software.
Así que la verdadera cuestión no es si hay anuncios o no. Es si podemos diseñar estructuras que eviten excluir a las personas de estas herramientas y potencialmente manipularlas como consumidores. Creo que sí podemos.
Una manera de abordarlo son las subvenciones cruzadas explícitas: utilizar las ganancias de un servicio o base de clientes para compensar las pérdidas de otro. Si una empresa le paga a la IA para que realice a escala un trabajo de alto valor que antes les correspondía a empleados humanos —por ejemplo, una plataforma inmobiliaria que utilice la IA para redactar listados o informes de valoración—, también debería pagar un cargo extra que subvencione el acceso gratuito o a bajo costo para todos los demás.
Este planteamiento se inspira en lo que ya hacemos con las infraestructuras esenciales. La Comisión Federal de Comunicaciones les exige a las empresas de telecomunicaciones que contribuyan a un fondo para mantener asequibles el teléfono y la banda ancha en las zonas rurales y para los hogares de bajos ingresos. Muchos estados añaden un cargo de beneficio público a las facturas de electricidad para proporcionar ayuda a los hogares de bajos ingresos.
Una segunda opción es aceptar la publicidad, pero acompañarla de una gobernanza real: no una publicación de blog con sus principios, sino una estructura vinculante con supervisión independiente sobre cómo se utilizan los datos personales. Existen precedentes parciales de esto. La ley alemana de cogestión les exige a las grandes empresas como Siemens y Volkswagen que les den a los trabajadores hasta la mitad de los puestos en los consejos de supervisión, lo que demuestra que la representación formal de las partes interesadas puede ser obligatoria en las empresas privadas. Meta está obligada a seguir los dictámenes de moderación de contenidos emitidos por su consejo de supervisión, un órgano independiente de expertos externos (aunque su eficacia ha sido criticada).
Lo que la industria de la IA necesita es una combinación de estos enfoques: un consejo que incluya expertos independientes y representantes de las personas cuyos datos están en juego, con autoridad vinculante sobre qué datos conversacionales pueden utilizarse para publicidad dirigida, qué cuenta como cambio material de política y qué se les dice a los usuarios.
Un tercer enfoque implica poner los datos de los usuarios bajo un control independiente a través de un fideicomiso o cooperativa con la obligación legal de actuar en interés de los usuarios. Por ejemplo, Midata, una cooperativa suiza, les permite a sus miembros almacenar sus datos de salud en una plataforma encriptada y decidir, caso por caso, si los comparten con los investigadores. Los miembros de Midata rigen sus políticas en una asamblea general, y un comité ético elegido por ellos revisa las solicitudes de acceso de los investigadores.
Ninguna de estas opciones es fácil. Pero aún estamos a tiempo de elaborarlas para evitar los dos resultados que más temo: una tecnología que manipule a quien la utiliza sin costo alguno y otra que beneficie exclusivamente a los pocos que pueden permitirse utilizarla. c. 2026 The New York Times Company.
Zoë Hitzig es exinvestigadora de OpenAI y becaria júnior de la Sociedad de Becarios de Harvard.