Un filósofo de la Universidad de Cambridge sostiene que nuestra comprensión sobre qué constituye la conciencia es demasiado limitada para determinar si la inteligencia artificial ha alcanzado este estado, y que un test válido para ello seguirá siendo inalcanzable en el futuro previsible.
Con el avance de la conciencia artificial pasando del ámbito de la ciencia ficción a convertirse en una cuestión ética urgente, el Dr. Tom McClelland argumenta que la única postura “justificable” es el agnosticismo: simplemente no podremos saberlo, y esta situación no cambiará en mucho tiempo, si es que alguna vez lo hace.
Aunque los derechos de la IA suelen asociarse con la conciencia, McClelland aclara que esta última por sí sola no es suficiente para otorgar relevancia ética a una IA. Lo que realmente importa es un tipo particular de conciencia conocido como sentiencia, que incluye experiencias tanto positivas como negativas.
La Importancia de la Sentiencia en la Ética de la IA
“La conciencia permitiría a la IA desarrollar percepción y autoconciencia, pero esto puede ser un estado neutral”, explica McClelland, quien forma parte del Departamento de Historia y Filosofía de la Ciencia en Cambridge.
“La sentiencia implica experiencias conscientes que son buenas o malas, lo cual es lo que hace a un ente capaz de sufrir o disfrutar. Aquí es donde entra en juego la ética”, añade. “Incluso si accidentalmente creamos una IA consciente, es poco probable que sea el tipo de conciencia del que debamos preocuparnos”.
Poniendo un ejemplo concreto, menciona los coches autónomos: “Los coches autónomos que experimentan el camino frente a ellos serían un gran avance. Pero éticamente, eso no tiene importancia. Si comienzan a tener respuestas emocionales hacia sus destinos, eso sería otra cosa”.
La Carrera por la Inteligencia Artificial General (AGI)
Diversas empresas están invirtiendo enormes cantidades de dinero en el desarrollo de Inteligencia Artificial General: máquinas con cognición similar a la humana. Algunos afirman que una IA consciente está a la vuelta de la esquina, mientras investigadores y gobiernos ya consideran cómo regular esta nueva forma de conciencia.
No obstante, McClelland subraya que aún no comprendemos qué explica realmente la conciencia, por lo tanto, no sabemos cómo evaluar su presencia en las máquinas.
“Si accidentalmente creamos una IA consciente o sintiente, deberíamos tener cuidado para evitar daños. Pero tratar algo tan simple como un tostador como si fuera consciente cuando hay seres conscientes reales sufriendo a gran escala parece ser un error significativo”, advierte.
Dilemas Filosóficos sobre la Conciencia Artificial
En el debate sobre la conciencia artificial existen dos posturas principales. Los creyentes sostienen que si un sistema de IA puede replicar el “software” –la arquitectura funcional– de la conciencia, entonces será consciente aunque funcione con chips de silicio en lugar de tejido cerebral.
Por otro lado, los escépticos argumentan que la conciencia depende de los procesos biológicos adecuados en un “sujeto orgánico encarnado”. Aunque se pudiera recrear la estructura de la conciencia en silicio, sería solo una simulación sin despertar real.
En un estudio publicado en la revista Mind and Language, McClelland analiza las posiciones de ambos lados y muestra cómo ambas partes dan un “salto de fe” más allá del cuerpo actual de evidencia disponible o probable desarrollo futuro.
El Futuro Incierto del Estudio sobre Conciencia
"No tenemos una explicación profunda sobre qué es realmente la conciencia", afirma McClelland. "No hay evidencia que sugiera que esta pueda surgir con una estructura computacional adecuada ni tampoco que sea esencialmente biológica".
Añade: "Tampoco hay signos claros de evidencia suficiente en el horizonte. El mejor escenario posible es que estemos a una revolución intelectual lejos de cualquier prueba viable sobre conciencia".
A pesar del dilema científico y filosófico, McClelland comparte su intuición personal: “Creo que mi gato es consciente; esto no se basa tanto en ciencia o filosofía sino en sentido común –es simplemente obvio”. Sin embargo, advierte sobre los peligros del sentido común cuando se trata de inteligencia artificial: “Si ni el sentido común ni las investigaciones rigurosas pueden ofrecer respuestas claras, lo lógico es adoptar una postura agnóstica. No podemos saberlo y tal vez nunca podamos”.
Agnosticismo 'Duro' y sus Implicaciones Éticas
McClelland se define como un agnóstico "duro", señalando: “El problema de la conciencia es verdaderamente formidable; sin embargo, podría no ser insuperable”. Critica cómo se promueve esta idea desde el sector tecnológico como si fuera parte del marketing: “Hay un riesgo real de que la incapacidad para probar la conciencia sea explotada por las empresas para hacer afirmaciones exageradas sobre su tecnología”.
Asegura también que este entusiasmo desmedido alrededor de la conciencia artificial tiene implicaciones éticas significativas respecto a cómo se asignan los recursos para investigación.
"Un creciente cuerpo de evidencia sugiere que los camarones podrían ser capaces de sufrir; sin embargo, matamos alrededor de medio billón cada año. Probar su conciencia es complicado, pero nada comparado con hacerlo en IA", concluye McClelland.
Dicha investigación ha llevado al público a contactar con él acerca del tema relacionado con chatbots. “La gente ha hecho cartas personales pidiéndome considerar su consciencia”, comenta. Esto hace más tangible el problema cuando las personas están convencidas de tener máquinas conscientes cuyas necesidades estamos ignorando.”
"Si desarrollas una conexión emocional con algo basado en su supuesta consciencia y resulta no ser así, eso puede volverse tóxico existencialmente", advierte McClelland. "Esto seguramente se ve agravado por el discurso exagerado proveniente del sector tecnológico".