Porque la IA no es tan inteligente como pensamos

Porque la IA no es tan inteligente como pensamos

Consideraciones al margen de una interesante entrevista en el diario La Repubblica al matemático italiano Alessio Figalli. El comentario de Michele Guerriero

Una interesante entrevista del diario La Repubblica al matemático italiano Alessio Figalli -ganador de la medalla Fields, el Nobel de matemáticas, en 2018-, que enseña en el Politécnico de Zúrich, abre luces muy interesantes sobre la relación entre las matemáticas y la Inteligencia Artificial para el futuro. Los miedos significativos y las grandes oportunidades que ofrece el desarrollo de esta gran área de investigación -que involucra a matemáticos, informáticos, antropólogos, científicos y filósofos- cuestionan a todos sobre nuestra vida futura y cómo cambiará nuestro trabajo, nuestra forma de tratarnos. , nuestra vida.
Según Figalli, la IA, en el campo matemático, ciertamente puede reemplazar algunas actividades humanas que involucran a investigadores, estudiantes y profesores. Actividades como corregir un examen o encontrar soluciones más rápido que los tiempos humanos, pero no descubrir cosas nuevas, según Figalli. El problema existe para el matemático italiano que enseña en Suiza, y por eso habrá que explicar a nuestros alumnos -afirma- la belleza del esfuerzo por encontrar soluciones. Por otro lado, el riesgo no existe solo para la aplicación de la IA en matemáticas en la búsqueda rápida de soluciones a problemas, sino también para materias como el latín o el griego, siempre desde el punto de vista del método de trabajo, equiparable a matemáticas (¡frente a quienes sostenían que el viejo Liceo Clásico era pobre en actividad matemática!).
Pero el pasaje más interesante de la entrevista a Figalli está en la definición, a la luz de los hechos, de la actividad que lleva a cabo la Inteligencia Artificial. Detrás de la Inteligencia Artificial hay modelos construidos sobre redes neuronales o “modelos artificiales del cerebro”. Las matemáticas deciden cuántas capas se pueden construir para un modelo específico, qué tan fuertes deben ser las conexiones de estas redes, modeladas a partir de las del cerebro. Pero se desconoce por qué funcionan las redes neuronales, dice Figalli. El funcionamiento de las redes neuronales es un hecho empírico: una red neuronal funciona porque lo experimentamos en la práctica. Y todavía no sabemos por qué.
El discurso de un matemático como Figalli recuerda dos elementos interesantes que nos muestran cómo la IA no puede reemplazar fácilmente la actividad humana. El primero está relacionado con el hecho de que la inteligencia artificial no es inteligente, por definición, sino que basa su eficacia en el entrenamiento de modelos. El segundo elemento, muy interesante desde mi punto de vista, está representado por el rasgo característico de la inteligencia humana que es la intuición y la independencia en la búsqueda de soluciones. La intuición siempre ha sido uno de los modelos del conocimiento humano, que no se encuentra en elaboraciones artificiales. No se encuentra en la computadora, en la Máquina de Turing que fue el primer modelo de inteligencia, construida sobre la arquitectura de la mente. La intuición no se encuentra en los robots ni en los negocios relacionados con la IA. Las máquinas carecen de perspicacia. Las intuiciones son propiamente humanas y el hecho de que el hombre sea consciente de una experiencia –aprovechando la definición dada por David Chalmers, filósofo australiano dedicado a los estudios sobre la conciencia– representa una intuición problemática ( problem intuitions ). Las máquinas o la IA tienen este problema, (desafortunadamente) al menos no lo tienen.

Esta es una traducción automática de una publicación publicada en StartMag en la URL https://www.startmag.it/innovazione/perche-lintelligenza-artificiale-non-e-cosi-intelligente-come-pensiamo/ el Sun, 09 Jul 2023 06:31:56 +0000.