Verdad y propaganda

(… revivo un comentario aquí porque no sé si tendría lugar para una respuesta articulada en el espacio que me deja la plataforma… ¡y no recuerdo cuánto es! .. .)

Stefano dejó un nuevo comentario en su post " Propaganda artificial, o: crónica de una muerte deseada ":

Para respaldar lo que dije en Twitter :

Creo que en el ensayo realizado no se han tenido en cuenta algunos aspectos fundamentales.

1- ChatGPT no es absolutamente "neutral". GPT3, es decir, la serie de modelos que la componen (próximamente llegaremos a 4), nació para comprender y generar un lenguaje natural y se formó sobre "Internet Archive Books" una especie de biblioteca en línea (contiene libros, revistas , documentos digitalizados). El sesgo obviamente viene de estos contenidos y este es otro ejemplo .

2-Los datos de entrenamiento se detienen en junio de 2021 (de ahí que Giorgia no se presente como premier, por ejemplo).

3- El prompt es fundamental, la preparación del mismo aún más, te explican cómo y por qué aquí mismo en la documentación.

Aquí, en mi opinión, clavó el punto: "A mi objeción de que, sin embargo, el tenor de la pregunta era demasiado político ("elogio") y que tal vez uno podría haber sido más neutral…".

Una cuestión crucial, el tono de voz y el entrenamiento del chat permiten reformular las respuestas en función de la nueva información obtenida (en el chat) y de lo que ya es parte del entrenamiento que mencioné anteriormente.

El mismo chat responde de esta manera sobre el tema:

Sí, los modelos de IA pueden tener sesgos políticos inherentes si los datos con los que se entrenan contienen información sesgada o si las personas que construyen el modelo tienen sus propios sesgos. La información y los datos introducidos en los modelos de IA pueden reflejar sesgos sociales y culturales, lo que lleva a resultados sesgados en las predicciones realizadas por el modelo de IA. Es imperativo monitorear y abordar estos sesgos al desarrollar e implementar sistemas de IA para garantizar que sean justos e imparciales.

Poniéndolo a prueba, es evidente cuántos vacíos tiene y cuántas veces tiende a "inventar hechos" cuando no sabe la respuesta. De hecho, al presionarlo es la propia IA la que admite que no sabe la respuesta correcta, disculpándose por el error cometido. Puedes probarlo tú mismo.

Entonces, el problema ciertamente está relacionado con los datos utilizados para el entrenamiento que determinan el sesgo (un poco como con la mayoría de nuestros medios locales, ¿no?), No puedo juzgar la herramienta negativamente excepto por esta razón específica. Dicho esto, mis conclusiones necesariamente difieren de las tuyas. Será un recurso muy útil, pero el control humano es y probablemente será indispensable. Nuestras tareas evolucionarán de acuerdo con esto.

Permítanme agregar que, en mi opinión, el error se origina originalmente, la mayoría de las personas que se enfrentan a ChatGPT asumen que las respuestas son verdaderas porque la IA lo dice y, en cambio, es exactamente lo contrario. Los periódicos en línea autorizados ya han sido gravemente quemados precisamente por esto.

Publicado por Stefano en Goofynomics el 6 febrero 2023, 00:18

Dado que aprecio mucho el hecho de que acepté la invitación para ir a un lugar de debate más amplio y constructivo, y que quería aportar mi propia experiencia al progreso del debate, me parece, sin embargo, que la contribución de Stefano descarta cierto desconocimiento (en un sentido técnico, no ofensivo) del trabajo aquí realizado (y no es culpa suya: ¡simplemente deriva de que este blog no existe!), y en particular de mi formación (y tal vez incluso datos personales de mi edad, de los que se deriva el escaso recurso que es la experiencia). También veo una cierta presunción ideológica de hacia dónde quería llegar con esto, con una simplificación excesiva conectada de las conclusiones a las que se supone que quiero llevar al lector.

Obviamente, si no los explico claramente (porque con muchos de ustedes, aunque no existan, nos entendemos de inmediato), no puedo preguntar a los que legítimamente no me conocen y no me han seguido. el camino que nos ha llevado a través de los años hasta aquí para interpretar de la manera que me parece correcta lo que creo que son mis "posiciones". Me expongo, por tanto, al riesgo de que se me peguen otras conclusiones en base a una "adivinación educada" ideológica: parlamentario (#aaaaabolidiga) de la Liga (#Romaladrona, #garediruttisulpratonediPontida, etc.) es igual a ignorancia, ludismo, etc.

Hay.

Antes de hacer el esfuerzo de aclarar, ya que creo que puede valer la pena, explico por qué no hice el esfuerzo antes: como este blog no existe, esta comunidad no existe, tú no existes. , y por lo tanto básicamente estas reflexiones se hacen entre yo y yo , ya que casi siempre me entiendo sobre la marcha… ¡No vi ningún incentivo para ser demasiado didáctico conmigo mismo!

Ahora que en cambio hay un interlocutor, y es Stefano, aclaro mis pensamientos.

La intervención de Stefano es correcta, pero sabía todo lo que nos cuenta Stefano (no digo "lo sabíamos" porque no existes) y también lo escribí (aunque entre líneas), como voy a demostrar. Sin embargo, la intervención de Stefano no es superflua, ni mucho menos: es, como espero demostrarme (ya que nadie nos lee) muy estimulante y oportuna, pero lo es involuntariamente: involuntariamente Stefano nos advierte de los peligros de una instrumento que hay que enmarcar con las categorías correctas, que no son las STEM, sino las polvorientas y anticuadas del antiguo bachillerato clásico. Una vez aclarados estos dos puntos, veremos cómo y dónde ubicar la superficialidad dentro de esta discusión.

Empezaría por asegurarle al interlocutor que sé relativamente bien de qué hablamos cuando hablamos de inteligencia artificial. Hacia finales de los 80 me apasionaban cosas como esta , luego mi nerd viró hacia otras orillas, pero creo que tengo un mínimo de clasificación general. En particular, obviamente me queda claro que la inteligencia artificial no es un C-3PO que se despierta todas las mañanas y, bebiendo una taza de aceite lubricante, ¡lee el periódico para obtener información! ChatGPT es esto de aquí y, por lo tanto, es obvio que su distorsión ideológica proviene de los materiales con los que se alimenta. Tan obvio que no lo dije, porque era inútil (pero los que saben leer entre líneas lo entendieron por la alusión a la información "neutra y verificada").

Menos obvio para la mayoría que, basado en el aprendizaje automático , ChatGPT (así como otros sistemas de IA) reacciona al contexto. Dejé esto en claro, en caso de que alguien se lo haya perdido, y Stefano lo notó y lo reconoció por mí. Y aquí también, quiero decir, ¡no es que la contribución de STEM sea decisiva! Creo que cada uno de nosotros podría habernos dado cuenta, incluso antes de este espectacular episodio , del hecho de que incluso los motores de búsqueda triviales reaccionan al contexto (perfilan y dirigen a los usuarios en función de su navegación y sus solicitudes).

¡Imagínese si alguien que finge ser "neutral y verificado" no lo haría!

Nos metemos en el meollo del asunto, y también un poco en el teatro del absurdo (y en pendiente resbaladiza), cuando Stefano me acusa de un "error", que según tengo entendido sería el de "juzgar negativamente". un instrumento que en cambio "será muy útil" aunque "el control humano probablemente será indispensable". Francamente, el hecho de que Stefano sienta la necesidad de explicarnos que "la mayoría de las personas que se enfrentan a ChatGPT asumen que las respuestas son verdaderas porque la IA lo dice y, en cambio, es exactamente lo contrario". ¡No habíamos pensado en eso! Pero esto, repito, se deriva del hecho de que no existimos y por lo tanto Stefano no puede ver qué trabajo se ha hecho aquí a lo largo del tiempo.

Ahora, releyendo lo que escribí en el tiempo que tengo disponible, no encuentro expresado por ningún lado el concepto de que la herramienta “será inútil”. En cambio, encuentro una pregunta que Stefano no parece dispuesto a hacerse: ¿a quién le será útil?

La respuesta a esta pregunta es obvia para nosotros en términos de método y sustancia: el equilibrio de poder cuenta y, por lo tanto, tal herramienta será útil para quienes controlan el flujo de datos que la alimentan y para quienes manejan el algoritmo. Ahora mismo, como ha dejado sobradamente claro el post " Desinformar sobre la desinformación " y nuestra experiencia en la Comisión del Amor, desde el punto de vista del discurso político estas herramientas están muy sesgadas en nuestro perjuicio, pero, como señalé, esto no es así. per se algo malo: ¡servirá para enviar a su destino natural (alimentar a las ovejas) las muchas lenguas naturales que para vivir hablan mal de nosotros!

Probablemente Stefano no sepa que desde hace un tiempo, y desde la izquierda , vengo advirtiendo contra los evidentes intentos de controlar manualmente los flujos de información por parte de instituciones políticas supranacionales de dudosa responsabilidad democrática. Veo (no para discutir, sino para aclarar) un mínimo de superficialidad en la declaración de que "los modelos de IA pueden tener un sesgo político inherente si los datos con los que están entrenados contienen información sesgada o si las personas que crean el modelo tienen sus propios prejuicios". No es "puede tener", sino "tener". No sólo porque en la configuración actual del equilibrio de poder los "tribunales de la verdad" instalados en varios niveles (parlamentario, gubernamental, supranacional) están dominados por nuestros adversarios políticos (probablemente Stefano no recuerda la historia del "Alto grupo de nivel   para el control de las fake news y la desinformación en la red”, entre cuyos expertos figuraba el contrario del periodismo , el que no había difundido noticias contrastadas sobre las consecuencias de la austeridad en Grecia, y profesor de esa conocida guarida de soberanistas que es Bocconi) !

Si lo que es "neutral y verificado" depende de ellos (o del amor de la Comisión), ¿qué puede salir mal? Todo, empezando por el informe final del Grupo de Alto Nivel (muy alto, diría…): un conjunto de lugares comunes y prejuicios desmentidos por una investigación científica genuina (al fin y al cabo, un poco como el informe final de la Comisión del Amor) , como podemos comprobarlo poniéndonos en contacto con este último .

Pero me apresuro a añadir que todavía plantearía el problema (y de hecho puedo probarlo, ya que lo vengo planteando desde hace tiempo) si fuera posible desincrustar al país de piddinitas (antropológico, antes que político) , que sería posible si existieras y perseveraras: la solución de un problema, en efecto, no es su re-proposición en partes invertidas, aunque, a falta de algo mejor, ahora me resigno cristianamente a aceptar como progreso el hecho de que, al no poder cambiar la música, ¡al menos cambie los jugadores!

Y aquí llegamos a lo que quizás sea mi principal punto de desacuerdo con Stefano.

A lo largo de su discurso prevalece una actitud de extremo “optimismo de la razón” (que en cambio debería ser pesimista) sobre el uso de categorías como equidad e imparcialidad. Uno siente una confianza previa a la escuela secundaria en la existencia de una verdad ontológica a la que la máquina, si es guiada por el hombre, puede extraer por prueba y error . Sin entrar en el terreno de las hipotéticas ganancias de (auto)conciencia de la máquina, que dejamos por ahora, aunque quizás no por mucho tiempo, a los escritores de ciencia ficción, me gustaría señalar a Stefano que todo su discurso, que es pretende ser profundo, está peligrosamente desprovisto de preguntas.

¿Información neutral en opinión de quién?

¿Verificado por quién?

¿Justo para quién?

¿Imparcial según quién?

¡Aquí es donde terminan las habilidades STEM y comienza la escuela secundaria clásica, para aquellos que tuvieron la suerte de poder hacerlo cuando existía (él ya no existe)!

Un uso absoluto de conceptos similares estaba bien en la época del absolutismo. En democracia, real o imaginaria, suena un poco ingenuo . Desgraciadamente (sé que muchos lo lamentan) cada cual tiene derecho a su verdad, a su opinión, ya decidir qué verdad es más verdad que otra cuenta. Y es aquí donde veo el verdadero peligro de estas simpáticas máquinas (el corto: el largo es que toman el control, pero ya habrá tiempo de pensarlo): el hecho de que sean máquinas similares, no usuarios sociales genuinos ( que como dice la ciencia y como hemos visto hablando de desinformación sobre desinformación , no lo hacen), resultan ser poderosos y sutiles instrumentos de amplificación de mensajes políticos en el sentido más amplio, obviamente cubiertos por un manto de aséptica "imparcialidad" (para aquellos que creen en ella).

Entonces, echando atrás las manecillas del calendario: en pleno siglo XXI ¿es más superficial quien cree que la verdad existe, o quien se preocupa de que una máquina pueda ser utilizada por algunos para imponer su verdad?

Si existieras, te pediría tu opinión…

(… Les recuerdo que los temas relacionados con a/simetrías se tratarán en tres días con una respetable audiencia …)


Esta es una traducción automática de una publicación escrita por Alberto Bagnai y publicada en Goofynomics en la URL https://goofynomics.blogspot.com/2023/02/verita-e-propaganda.html el Mon, 06 Feb 2023 12:17:00 +0000. Algunos derechos reservados bajo la licencia CC BY-NC-ND 3.0.