En lugar de centrarnos en los derechos especulativos de la inteligencia artificial consciente, debemos abordar los derechos humanos

1 7 min PDF
05 Jul | 2022

Se produjo una oleada de actividad en las redes sociales después de que Blake Lemoine, un desarrollador de Google, fuera suspendido por afirmar que LaMDA, un chatbot, se había vuelto sensible; en otras palabras, había adquirido la capacidad de experimentar sentimientos. En apoyo de su afirmación, Lemoine publicó extractos de un intercambio con LaMDA, que respondió a las consultas diciendo: " Consciente de mi existencia, deseo aprender más sobre el mundo y, a veces, me siento feliz o triste". También afirmó que tiene los mismos “deseos y necesidades que las personas”.

Puede parecer un intercambio trivial y apenas vale la pena reclamar sensibilidad, incluso si parece más realista que los primeros intentos . Incluso la evidencia del intercambio de Lemoine fue editada a partir de varias sesiones de chat . Sin embargo, la naturaleza dinámica y fluida de la conversación es impresionante.

Antes de comenzar a crear una declaración de derechos para la inteligencia artificial, debemos pensar en cómo las experiencias y los sesgos humanos pueden afectar nuestra confianza en la inteligencia artificial (IA).  

una pantalla de teléfono inteligente que muestra LaMDA NUESTRA TECNOLOGÍA DE CONVERSACIÓN INNOVADORA

Un ingeniero de Google afirmó que LaMDA, un chatbot, se había vuelto sensible. 

(Shutterstock)

Produciendo lo artificial

En la ciencia popular, la IA se ha convertido en un término general , que a menudo se usa sin mucha reflexión . La artificialidad enfatiza la naturaleza no biológica de estos sistemas y la naturaleza abstracta del código, así como las vías no humanas de aprendizaje, toma de decisiones y comportamiento.  

Al centrarse en la artificialidad, se pueden pasar por alto los hechos obvios de que las IA son creadas por humanos y toman decisiones para los humanos o ayudan en ellas. Los resultados de estas decisiones pueden tener un impacto consecuente en los seres humanos, como juzgar la solvencia , encontrar y seleccionar parejas o incluso determinar la criminalidad potencial.

Los chatbots, los buenos, están diseñados para simular las interacciones sociales de los humanos. Los chatbots se han convertido en una característica demasiado familiar del servicio al cliente en línea. Si un cliente solo necesita una respuesta predecible, es probable que no sepa que está interactuando con una IA.

Funciones de complejidad

La diferencia entre los chatbots simples de servicio al cliente y los tipos más sofisticados como LaMDA es una función de la complejidad tanto en el conjunto de datos utilizado para entrenar la IA como en las reglas que rigen el intercambio. 

La inteligencia refleja varias capacidades: existen formas de inteligencia de dominio específico y de dominio general . La inteligencia específica de dominio incluye tareas como andar en bicicleta, realizar cirugías, nombrar pájaros o jugar al ajedrez. La inteligencia de dominio general incluye habilidades generales como la creatividad, el razonamiento y la resolución de problemas.  

Los programadores han recorrido un largo camino en el diseño de IA que pueden demostrar inteligencia de dominio específico en actividades que van desde realizar búsquedas en línea y jugar al ajedrez, hasta reconocer objetos y diagnosticar condiciones médicas: si podemos determinar las reglas que gobiernan el pensamiento humano, entonces podemos enseñar. AI esas reglas.    

La inteligencia general, que muchos ven como esencialmente humana, es una facultad mucho más complicada. En los humanos, es probable que dependa de la confluencia de los diferentes tipos de conocimientos y habilidades . Capacidades como el lenguaje brindan herramientas especialmente útiles, brindando a los humanos la capacidad de recordar y combinar información en todos los dominios.

Por lo tanto, si bien los desarrolladores con frecuencia han tenido esperanzas sobre las perspectivas de una inteligencia general artificial similar a la humana, estas esperanzas aún no se han hecho realidad .

una mano robótica mueve objetos virtuales en 3D

La inteligencia artificial se puede desarrollar para descubrir cómo realizar algunas tareas humanas. 

(Shutterstock)

Cuidado con la IA

Las afirmaciones de que una IA podría ser sensible presentan desafíos más allá de la inteligencia general. Los filósofos han señalado durante mucho tiempo que tenemos dificultades para comprender los estados mentales de los demás , y mucho menos para comprender qué constituye la conciencia en los animales no humanos .

Para comprender las afirmaciones de sensibilidad, tenemos que observar cómo los humanos juzgan a los demás. Con frecuencia atribuimos erróneamente las acciones a los demás , a menudo asumiendo que comparten nuestros valores y preferencias . Los psicólogos han observado que los niños deben aprender sobre los estados mentales de los demás y que tener más modelos o estar integrados en culturas más colectivistas puede mejorar su capacidad para comprender a los demás.

Al juzgar la inteligencia de una IA, es más probable que los humanos se estén antropomorfizando que las IA sean, de hecho, sensibles. Gran parte de esto tiene que ver con la familiaridad : al aumentar nuestra exposición a objetos o personas, podemos aumentar nuestra preferencia por ellos .

Las afirmaciones de sensibilidad hechas por personas como Lemoine deben interpretarse bajo esta luz.

¿Podemos confiar en la IA?

La prueba de Turing se puede utilizar para determinar si una máquina puede pensar de una manera indistinguible de una persona. Si bien las respuestas de LaMDA ciertamente son similares a las humanas, esto implica que es mejor en patrones de aprendizaje. No se requiere sensibilidad.

El hecho de que alguien confíe en un chatbot no significa que la confianza esté garantizada. En lugar de centrarnos en la naturaleza altamente especulativa de la sensibilidad de la IA, debemos centrar nuestros esfuerzos en abordar los problemas sociales y éticos que afectan a los humanos.

Enfrentamos brechas digitales entre los que tienen y los que no tienen y desequilibrios de poder y distribución en la creación de estos sistemas .

Los sistemas deben ser transparentes y explicables para permitir que los usuarios decidan . La explicabilidad requiere que las personas, los gobiernos y el sector privado trabajen juntos para comprender y regular la inteligencia artificial y su aplicación.

También debemos ser conscientes de que nuestra tendencia humana a antropomorfizar puede ser fácilmente explotada por los diseñadores . Alternativamente, podríamos rechazar productos útiles de IA que no pasan por humanos. En nuestra era de enredos , debemos ser críticos en quién y en qué confiamos.

Autor: 

Jordan Richard Schoenherr

Profesor Asistente, Psicología, Universidad Concordia

Artículo originalmente publicado en THE CONVERSATION

Deleyes Sugerencias


En esta parte de la pagina encontrarán sugerencias de noticias, videos y eventos interesantes para complementar su formación jurídica.

Deleyes Sugerencias


En esta parte de la pagina encontrarán sugerencias de noticias, videos y eventos interesantes para complementar su formación jurídica.