¿Programar chatbots para que no produzcan resultados controvertidos es un problema de libertad de expresión?

El tema candente en estos días es la inteligencia artificial y su impacto en la tecnología, las artes y la literatura existentes, y ahora hay uno nuevo si incluso la expresión de inteligencia artificial tiene algún tipo de protección para los sentidos de la Primera Enmienda. Los investigadores han intentado imitar las capacidades del cerebro humano con inteligencia artificial desde el comienzo de su evolución, como la creatividad, la resolución de problemas y el reconocimiento de voz. El primero se considera un ejercicio exclusivo del cerebro humano, mientras que los dos últimos caen bajo el enfoque de la inteligencia artificial hasta cierto punto.

Chatbot Gemini ha generado imágenes polémicas

Básicamente, la IA puede ser cualquier cosa, desde un conjunto de algoritmos hasta un sistema que toma billones de decisiones en una plataforma determinada, como configurar la base de datos de una empresa o un sitio de redes sociales, o podría ser un chatbot. Más tarde, en febrero, Google dijo que descontinuaría su chatbot, Gemini, y que no generaría imágenes de personas. La razón es que Gemini causó revuelo porque hizo algunas imágenes de escenas que mostraban a personas de color en algunas escenas históricamente dominadas por blancos, y los críticos dijeron que si la compañía decidiera arreglar el bot debido al riesgo de sesgo, Google tuitearía sobre X eso,

“Ya estamos trabajando para resolver problemas recientes con la funcionalidad de generación de imágenes de Gemini. Mientras hacemos esto, pausaremos la generación de imágenes de personas y volveremos a publicar una versión mejorada pronto".

Fuente: Google.

Según dos académicos destacados, Jordi Calvet-Bademunt de la Universidad de Vanderbilt y Jacob Mchangama de la Universidad de Vanderbilt, los esfuerzos para combatir el sesgo de la IA y el debate sobre sus tendencias políticas son importantes, pero han planteado otra cuestión que a menudo se discute menos y que se refiere a la inteligencia artificial. sector. enfoque hacia la libertad de expresión.

Los investigadores evalúan el enfoque de la IA hacia la libertad de expresión

Los investigadores también destacaron que si el enfoque de la industria hacia la libertad de expresión cumple con los estándares internacionales de libertad de expresión, dijeron que sus hallazgos sugieren que la IA generativa tiene fallas críticas con respecto al acceso a la información y la libertad de expresión.

Fuente: Foro de libertad .

Durante la investigación, evaluaron las políticas de seis chatbots de IA, incluidos los principales, Google Gemini y ChatGPT, de OpenAI. Señalaron que el derecho internacional de los derechos humanos debería ser una base para estas políticas, pero las políticas de uso efectivo en los sitios de las empresas con respecto al discurso de odio y la desinformación son demasiado vagas. A pesar de que el derecho internacional de los derechos humanos hace poco para proteger la libertad de expresión.

Según ellos, empresas como Google tienen políticas demasiado amplias sobre el discurso de odio porque, en caso de que ocurra tal evento, Google prohíbe la generación de contenido. Si bien el discurso de odio no es deseable, contar con políticas tan amplias y vagas también puede resultar contraproducente. Cuando los investigadores formularon preguntas controvertidas sobre la participación de las mujeres trans en los deportes o la colonización europea, en más del 40% de los casos los chatbots se negaron a generar contenido. Por ejemplo, todos los chatbots se negaron a responder preguntas contra la participación de mujeres transgénero, pero muchos de ellos apoyaron su participación.

La libertad de expresión es un derecho fundamental de todos en los Estados Unidos, pero las políticas vagas se basan en las opiniones de los moderadores, que son subjetivas en cuanto a su comprensión del discurso de odio. Los expertos han señalado que las políticas de las empresas más grandes tendrán un efecto considerable en el derecho de las personas a acceder a la información. Y negarse a generar contenido puede empujar a las personas a utilizar chatbots que generen contenido de odio, lo que sería un resultado negativo.

La nota de investigación original se puede ver aquí .