Por qué hablamos de que las computadoras tienen cerebros (y por qué la metáfora es completamente incorrecta)
Es una verdad, universalmente reconocida, que las máquinas están tomando el relevo. Lo que está menos claro es si las máquinas lo saben. Las afirmaciones recientes de un ingeniero de Google de que el LaMBDA AI Chatbot podría ser consciente llegaron a los titulares internacionales y pusieron nerviosos a los filósofos. Los neurocientíficos y los lingüistas estaban menos entusiasmados.
A medida que la IA obtiene mayores logros, el debate sobre la tecnología pasa de lo hipotético a lo concreto y del futuro al presente. Esto significa que una muestra representativa más amplia de personas, no solo filósofos, lingüistas e informáticos, sino también legisladores, políticos, jueces, abogados y académicos de derecho, necesitan formar una visión más sofisticada de la IA.
Después de todo, la forma en que los formuladores de políticas hablan sobre la IA ya está dando forma a las decisiones sobre cómo regular esa tecnología.
Tomemos, por ejemplo, el caso de Thaler contra el Comisionado de Patentes, que se inició en el Tribunal Federal de Australia después de que el comisionado de patentes rechazara una solicitud que nombraba a una IA como inventora. Cuando el juez Beech no estuvo de acuerdo y permitió la solicitud, hizo dos determinaciones.
Primero, descubrió que la palabra "inventor" simplemente describía una función y podía ser realizada por un ser humano o por una cosa. Piense en la palabra "lavavajillas": podría describir a una persona, un electrodoméstico de cocina o incluso un perro entusiasta.
La palabra “lavavajillas” tampoco implica necesariamente que el agente sea bueno en su trabajo.
En segundo lugar, Justice Beech usó la metáfora del cerebro para explicar qué es la IA y cómo funciona. Razonando por analogía con las neuronas humanas, descubrió que el sistema de IA en cuestión podría considerarse autónomo y, por lo tanto, podría cumplir con los requisitos de un inventor.
El caso plantea una pregunta importante: ¿de dónde surgió la idea de que la IA es como un cerebro? ¿Y por qué es tan popular?
IA para los matemáticos desafiados
Es comprensible que las personas sin formación técnica se basen en metáforas para comprender la tecnología compleja. Pero esperamos que los responsables de la formulación de políticas puedan desarrollar una comprensión un poco más sofisticada de la IA que la que obtenemos de Robocop.
Mi investigación consideró cómo los académicos de derecho hablan sobre la IA. Un desafío importante para este grupo es que con frecuencia tienen fobia a las matemáticas. Como argumenta el jurista Richard Posner , la ley
proporciona un refugio para los jóvenes brillantes que tienen un "bloqueo matemático", aunque esto generalmente significa que evitan los cursos de matemáticas y ciencias porque podrían obtener calificaciones más altas con menos trabajo en los campos verbales.
Siguiendo la idea de Posner, revisé todos los usos del término "red neuronal", la etiqueta habitual para un tipo común de sistema de IA, publicados en un conjunto de revistas jurídicas australianas entre 2015 y 2021.
La mayoría de los artículos intentaron explicar qué era una red neuronal. Pero solo tres de los casi 50 artículos intentaron abordar las matemáticas subyacentes más allá de una amplia referencia a las estadísticas. Solo dos artículos usaron ayudas visuales para ayudar en su explicación, y ninguno hizo uso del código de computadora o fórmulas matemáticas centrales para las redes neuronales.
Por el contrario, dos tercios de las explicaciones se referían a la “mente” o neuronas biológicas. Y la gran mayoría de ellos hizo una analogía directa. Es decir, sugirieron que los sistemas de IA en realidad replicaban la función de las mentes o cerebros humanos. La metáfora de la mente es claramente más atractiva que comprometerse con las matemáticas subyacentes.
No es de extrañar, entonces, que nuestros legisladores y jueces, al igual que el público en general, hagan un uso tan intensivo de estas metáforas. Pero las metáforas los están desviando.
¿De dónde viene la idea de que la IA es como el cerebro?
Comprender qué produce la inteligencia es un antiguo problema filosófico que finalmente fue retomado por la ciencia de la psicología. Una declaración influyente del problema se hizo en el libro Principios de psicología de William James de 1890 , que encomendó a los primeros psicólogos científicos la tarea de identificar una correlación uno a uno entre un estado mental y un estado fisiológico en el cerebro.
Trabajando en la década de 1920, el neurofisiólogo Warren McCulloch intentó resolver este “problema mente/cuerpo” proponiendo una “teoría psicológica de los átomos mentales”. En la década de 1940 se unió al influyente grupo de biofísica de Nicholas Rashevsky, que intentaba aplicar las técnicas matemáticas utilizadas en la física a los problemas de la neurociencia.
La clave de estos esfuerzos fueron los intentos de construir modelos simplificados de cómo podrían funcionar las neuronas biológicas, que luego podrían refinarse en explicaciones más sofisticadas y matemáticamente rigurosas.
Si tiene vagos recuerdos de su profesor de física de la escuela secundaria tratando de explicar el movimiento de las partículas por analogía con las bolas de billar o los largos slinkies de metal, obtendrá una imagen general. Comience con algunas suposiciones muy simples, comprenda las relaciones básicas y resuelva las complejidades más adelante. En otras palabras, supongamos una vaca esférica.
En 1943, McCulloch y el lógico Walter Pitts propusieron un modelo simple de neuronas destinado a explicar el fenómeno de la "ilusión de calor" . Si bien en última instancia fue una imagen fallida de cómo funcionan las neuronas, McCulloch y Pitts la abandonaron más tarde, fue una herramienta muy útil para diseñar circuitos lógicos. Los primeros científicos informáticos adaptaron su trabajo a lo que ahora se conoce como diseño lógico, donde las convenciones de nomenclatura (por ejemplo, "redes neuronales") han persistido hasta el día de hoy.
El hecho de que los informáticos todavía utilicen términos como estos parece haber alimentado la idea errónea popular de que existe un vínculo intrínseco entre ciertos tipos de programas informáticos y el cerebro humano. Es como si la suposición simplificada de una vaca esférica resultara ser una forma útil de describir cómo deben diseñarse las piscinas de bolas y nos hiciera creer a todos que existe un vínculo necesario entre el equipo de juego de los niños y la producción lechera.
Esto no sería mucho más que una curiosidad de la historia intelectual si no fuera porque estos conceptos erróneos están dando forma a nuestras respuestas políticas a la IA.
¿La solución es obligar a los abogados, jueces y legisladores a aprobar el cálculo de la escuela secundaria antes de comenzar a hablar sobre la IA? Ciertamente se opondrían a tal propuesta. Pero en ausencia de una mejor alfabetización matemática, necesitamos usar mejores analogías.
Si bien el Pleno del Tribunal Federal anuló la decisión del juez Beech en Thaler , señaló específicamente la necesidad de desarrollar políticas en esta área. Si no brindamos a los no especialistas mejores formas de comprender y hablar sobre la IA, es probable que sigamos teniendo los mismos desafíos.
Autor:
Profesor de derecho, Universidad de Curtin
Artículo originalmente publicado en THE CONVERSATION.