Google suspende la creación de imágenes de Gemini, resaltando la preocupación por el sesgo en la IA

Google desactiva función de generación de imágenes en IA Gemini por sesgo racial. Insta a mayor transparencia en IA.

Hace unos años, Google enfrentó un problema significativo con el reconocimiento de personas en Google Fotos al identificar personas negras como gorilas. Ahora, en su inteligencia artificial Gemini, se está produciendo una situación inversa tan impactante que la empresa ha tenido que desactivar esta función. Resulta que la IA de Google está experimentando grandes dificultades para generar imágenes históricas con personas de ascendencia caucásica.

Gemini ha estado generando varias imágenes de los padres fundadores de Estados Unidos y soldados nazis, mostrando constantemente rostros de minorías, en un aparente intento por evitar estereotipos raciales y de género, pero esto ha tenido el efecto contrario.

La parcialidad de la IA parece ser el problema que Gemini ha intentado abordar. El año pasado, Bloomberg revisó más de 5,000 imágenes creadas con Stable Diffusion y descubrió que este sistema generaba imágenes basadas en prejuicios racistas y sexistas.

La empresa ha reconocido las críticas y ha afirmado que ya está “trabajando para resolver los problemas recientes con la función de generación de imágenes de Gemini”. Mientras tanto, la empresa ha confirmado que ha desactivado la generación de imágenes de personas hasta que haya una versión mejorada disponible.

Este no es un problema aislado para Google. Desde que Gemini estuvo disponible para todos, ha estado generando imágenes de personas no blancas incluso cuando se le pedía precisión histórica. Esto ha provocado una avalancha de teorías de conspiración, incluida la idea de que Google está evitando representar intencionalmente a personas blancas en su IA.

El problema principal, y lo que ha molestado especialmente a los usuarios, es que la generación errónea de imágenes de Gemini parece ir más allá de simples inexactitudes históricas. Esto ha alimentado teorías de conspiración y críticas severas hacia Google.

Este problema plantea interrogantes sobre hasta qué punto los creadores de IA pueden influir en las solicitudes de los usuarios, generar sesgos o manipular contenido. Lo más preocupante es que esta manipulación pueda estar sujeta a los intereses de quienes programan la inteligencia artificial de manera poco transparente. Los primeros pasos con IA generativas han demostrado que, una vez entrenadas con modelos sesgados, estos sesgos se reflejan en el contenido generado a una escala sin precedentes.

Si bien este no es un tema nuevo en la generación de contenido por IA, representa una de las líneas que muchos argumentan deberían estar sujetas a un control regulatorio y estandarizado con la adopción masiva de estas tecnologías.

Quizás un primer paso sea reconocer los prejuicios y reducir las sospechas de manipulación mediante la implementación de medidas más transparentes por parte de los creadores de esta tecnología. Independientemente de la intención de los creadores, todos los sistemas de IA accesibles al público deben diseñarse de manera que sean auditables y revisables.

¿Cuál es tu reacción?
+1
0
+1
0
+1
0
+1
0
+1
0
Total
0
Shares
Publicación anterior

Elon Musk afirma que el primer paciente de Neuralink puede controlar un ratón de PC con la mente

Siguiente Publicación

Apple revela un protocolo pionero diseñado para resguardar iMessage contra futuros intentos de hackeo

Publicaciones Relacionadas