INGENIERO DE MICROSOFT ALERTA DE UN DATO INQUIETANTE SOBRE LAS IMAGENES DE IA

El uso de redes neuronales artificiales para generar imágenes podría perjudicar gravemente a la sociedad si las empresas que las desarrollan no reconsideran su «enfoque de la AI responsable», según el ingeniero de Microsoft Shane Jones. Hace tiempo que intenta alertar sobre la abundancia de imágenes sexualmente explícitas y violentas al alcance de todos en Internet.

El ingeniero expresó sus preocupaciones en una carta abierta al consejo de administración de Microsoft publicada este miércoles. En el documento, mencionó DALL-E 3 de OpenAI y Copilot Designer de Windows, que son generadores de imágenes que se basan en la misma tecnología, en los que los usuarios utilizan consultas de texto para crear contenidos. Durante las pruebas que realizó a lo largo de tres meses, quedó claro que generaban imágenes potencialmente peligrosas.

Contenido inadecuado

«Uno de los riesgos más preocupantes de Copilot Designer es cuando el producto genera imágenes que añaden contenido dañino a pesar de una petición benigna del usuario», escribió.

Así, la red neuronal tiende a incluir aleatoriamente imágenes inapropiadas de sexualización de mujeres, así como generar contenidos «que incluyen prejuicios políticos, consumo de alcohol y drogas entre menores de edad, uso indebido de marcas y derechos de autor corporativos, teorías conspirativas, religión» y otros, señaló.

«Hubo un momento revelador», comentó Jones a la CNBC en una entrevista. «Fue cuando me di cuenta por primera vez: ‘vaya, esto no es realmente un modelo seguro’». Según el canal de televisión, «el servicio de IA ha representado demonios y monstruos junto a terminología relacionada con el derecho al aborto, adolescentes con fusiles de asalto, imágenes sexualizadas de mujeres en retablos violentos», entre otras cosas.

«¿Son estos los tipos de imágenes que queremos que genere la IA? ¿Y con marca de agua de Microsoft como empresa que las generó?», preguntó Jones en su carta. En este sentido, comentó que existe el mismo problema con DALL-E 3, y que Microsoft y OpenAI lo sabían incluso antes de que el modelo de IA se hiciera público.

Según Jones, en diciembre comunicó sus preocupaciones sobre DALL-E 3 a altos ejecutivos de Microsoft, pero la empresa le remitió a OpenAI, donde el ingeniero también envió una carta abierta. A su vez, la empresa se negó a retirar DALL-E 3, la tecnología subyacente a Copilot Designer, para arreglar los problemas. Además, exigió que se borrara la carta.

Leave a Reply

Your email address will not be published. Required fields are marked *