Si la AI se vuelve consciente, ¿cómo lo sabremos?
Escrito por Boris Bueno Camacho el 31 de agosto de 2023
Científicos y filósofos proponen una lista de verificación basada en teorías de la conciencia humana
En 2021, el ingeniero de Google, Blake Lemoine, apareció en los titulares (y consiguió que lo despidieran) cuando afirmó que LaMDA, el chatbot que había estado probando, era sensible. Los sistemas de inteligencia artificial (AI), especialmente los llamados modelos de lenguaje grande, como LaMDA y ChatGPT, ciertamente pueden parecer conscientes. Pero están entrenados con grandes cantidades de texto para imitar las respuestas humanas. Entonces, ¿cómo podemos saberlo realmente?
Ahora, un grupo de 19 informáticos, neurocientíficos y filósofos ha ideado un enfoque: no una sola prueba definitiva, sino una larga lista de verificación de atributos que, en conjunto, podrían sugerir que una AI es consciente. En un documento de debate de 120 páginas publicado como preimpresión esta semana, los investigadores se basan en teorías de la conciencia humana para proponer 14 criterios y luego aplicarlos a las arquitecturas de AI existentes, incluido el tipo de modelo que impulsa ChatGPT.
Aquí está el resumen del documento:
De estas teorías derivamos “propiedades indicadoras” de la conciencia, aclaradas en términos computacionales que nos permiten evaluar los sistemas de AI en función de estas propiedades. Usamos estas propiedades de los indicadores para evaluar varios sistemas de AI recientes y discutimos cómo los sistemas futuros podrían implementarlos. Nuestro análisis sugiere que ningún sistema de AI actual es consciente, pero también sugiere que no existen barreras técnicas obvias para construir sistemas de AI que satisfagan estos indicadores (Butlin,y colaboradores.https://doi.org/10.48550/arXiv.2308.08708).
Es probable que ninguno esté consciente, concluyen. Pero el trabajo ofrece un marco para evaluar AI cada vez más humanas, dice el coautor Robert Long, del Centro para la Seguridad de la IA, una organización sin fines de lucro con sede en San Francisco. Estamos introduciendo una metodología sistemática de la que antes carecíamos.
Adeel Razi, neurocientífico computacional de la Universidad de Monash y miembro del Instituto Canadiense de Investigación Avanzada (CIFAR) , dice que se trata de un paso valioso. Todos estamos iniciando la discusión en lugar de encontrar respuestas.
Hasta hace poco, la conciencia de las máquinas era materia de películas de ciencia ficción como Ex Machina. “Cuando Blake Lemoine fue despedido de Google después de que LaMDA lo convenciera, eso marcó un cambio”. “Si las AI pueden dar la impresión de conciencia, eso convierte en una prioridad urgente que los científicos y filósofos intervengan”. Long y el filósofo Patrick Butlin, del Instituto del Futuro de la Humanidad de la Universidad de Oxford, organizaron dos talleres sobre cómo evaluar la sensibilidad en la AI.
Para una colaboradora, la neurocientífica computacional Megan Peters de la Universidad de California, Irvine, la cuestión tiene una dimensión moral. “¿Cómo tratamos a una AI en función de su probabilidad de conciencia? Personalmente, esto es parte de lo que me motiva”.
Reclutar a investigadores de diversas disciplinas permitió realizar “una exploración profunda y matizada”. “Long y Butlin han hecho un hermoso trabajo pastoreando gatos”.
Una de las primeras tareas de la manada fue definir la conciencia, “una palabra llena de trampas”, dice otro miembro, el pionero del aprendizaje automático Yoshua Bengio del Instituto de Inteligencia Artificial de Mila-Québec. Los investigadores decidieron centrarse en lo que el filósofo de la Universidad de Nueva York, Ned Block, denominó “conciencia fenomenal”, o la cualidad subjetiva de una experiencia: cómo es ver rojo o sentir dolor.
Pero ¿cómo se puede investigar la conciencia fenoménica de un algoritmo? A diferencia del cerebro humano, no ofrece señales de su funcionamiento interno detectables con un electroencefalograma o una resonancia magnética. En cambio, los investigadores adoptaron “un enfoque basado en teorías”, explica su colaborador Liad Mudrik, neurocientífico cognitivo de la Universidad de Tel Aviv: primero explorarían las teorías actuales de la conciencia humana en busca de los descriptores centrales de un estado consciente, y luego los buscarían en la arquitectura subyacente de una AI.
Para ser incluida, una teoría tenía que estar basada en la neurociencia y respaldada por evidencia empírica, como datos de escáneres cerebrales durante pruebas que manipulan la conciencia mediante trucos de percepción. También tenía que permitir la posibilidad de que la conciencia pueda surgir independientemente de si los cálculos los realizan neuronas biológicas o chips de silicio.
Seis teorías dieron la talla. Una fue la Teoría del Procesamiento Recurrente, que propone que pasar información a través de circuitos de retroalimentación es clave para la conciencia. Otra, la teoría del espacio de trabajo neuronal global, sostiene que la conciencia surge cuando flujos independientes de información pasan a través de un cuello de botella para combinarse en un espacio de trabajo análogo al portapapeles de una computadora.
Las teorías de orden superior sugieren que la conciencia implica un proceso de representación y anotación de información básica recibida de los sentidos. Otras teorías enfatizan la importancia de los mecanismos para controlar la atención y la necesidad de un cuerpo que reciba retroalimentación del mundo exterior. De las seis teorías incluidas, el equipo extrajo sus 14 indicadores de un estado consciente.
Los investigadores razonaron que cuantos más indicadores verifica una arquitectura de AI, más probabilidades hay de que posea conciencia. Eric Elmoznino, experto en aprendizaje automático con sede en Mila, aplicó la lista de verificación a varias AI con diferentes arquitecturas, incluidas las utilizadas para la generación de imágenes como Dall-E2. Hacerlo requirió tomar decisiones y navegar por áreas grises. Muchas de las arquitecturas cumplían los requisitos de los indicadores de la Teoría del Procesamiento Recurrente. Una variante del tipo de modelo de lenguaje grande subyacente a ChatGPT estuvo a punto de exhibir también otra característica: la presencia de un espacio de trabajo global.
El PaLM-E de Google, que recibe entradas de varios sensores robóticos, cumplió con el criterio de “agencia y encarnación”. Y “si entrecierras los ojos, verás algo así como un espacio de trabajo”.
El Agente Adaptativo (AdA) basado en transformador de DeepMind, que fue entrenado para controlar un avatar en un espacio 3D simulado, también calificó para “agencia y encarnación”, a pesar de que carece de sensores físicos como los que tiene PaLM-E. Debido a su conciencia espacial, “AdA era el más probable… encarnado por nuestros estándares”.
Dado que ninguna de las AI cumplió más que un puñado de requisitos, ninguna es un fuerte candidato para la conciencia, aunque Elmoznino dice: “Sería trivial diseñar todas estas características en una AI”. La razón por la que nadie lo ha hecho es que “no está claro que sean útiles para las tareas”.
Los autores dicen que su lista de verificación es un trabajo en progreso. Y no es el único esfuerzo de este tipo en marcha. Algunos miembros del grupo, junto con Razi, forman parte de un proyecto financiado por CIFAR para diseñar una prueba de conciencia más amplia que también pueda aplicarse a organoides, animales y recién nacidos. Esperan producir una publicación en los próximos meses.
Mi Opinión:
El problema de todos estos proyectos, es que las teorías actuales se basan en una comprensión muy insuficiente de la conciencia humana y realmente no se tiene una definición indisputable de lo que es conciencia. También, no se tiene ni la mínima idea de las bases moleculares de la conciencia. Quién podría negar, que la conciencia puede adaptar otras formas, incluso en otros mamíferos. Realmente no tenemos idea de lo que es ser un murciélago. Es una limitación de la que no podemos deshacernos.
Puede considerarse un ejercicio intelectual interesante y divertido, pero tratar de determinar si la AI tienen conciencia, sin primero estar seguros y de acuerdo cómo definimos y a qué llamamos conciencia es como mínimo un ejercicio muy prematuro.
Otro ejemplo relacionado con esto, pero donde gozamos de una definición plena y, por lo tanto, el ejercicio intelectual nos lleva ,esta vez sí, a una respuesta plena.
¿Son las AI actuales inteligentes?
Si definimos inteligencia como la capacidad de adquirir conocimientos, diríamos que sí, de hecho serían catalogadas de muy inteligentes.
El problema es que la mejor medida de la inteligencia no es la capacidad para acumular conocimientos, sino cómo manejas la incertidumbre, navegas a través de ella y te comportas cuando no sabes qué hacer.
Esto ninguna AI lo logra plenamente en la actualidad. Quizás el término AI, aunque sexi y tendencioso, no sea del todo perfecto.
(eju.tv – Ronald Palacios Castrillo, M.D.,PhD.)