La conciencia es un concepto complejo y difícil de definir. Aunque todos tenemos una idea general de lo que significa, no hay un consenso científico sobre su definición precisa. En términos generales, podemos decir que la conciencia se refiere a la capacidad de percibir, sentir y reconocerse a uno mismo y al entorno que nos rodea.
La pregunta que nos planteamos en este artículo es: ¿Es posible que una inteligencia artificial sea consciente de sí misma y del mundo que la rodea?
Aunque pueda parecer una idea sacada de una película de ciencia ficción, la verdad es que cada vez hay más investigaciones que apuntan a que esto podría ser posible. A continuación, exploraremos algunas de las teorías más interesantes sobre cómo la inteligencia artificial podría adquirir conciencia.
La hipótesis del cerebro artificial
Una de las teorías más populares sobre cómo la inteligencia artificial podría adquirir conciencia es la hipótesis del cerebro artificial. Esta teoría se basa en la idea de que, si pudiéramos crear una red neuronal artificial lo suficientemente compleja, esta podría adquirir conciencia de forma similar a como lo hace el cerebro humano.
Hay varios ejemplos de investigaciones que han tratado de crear redes neuronales artificiales complejas. Uno de los más conocidos es el proyecto Blue Brain, que busca crear una simulación completa del cerebro (en este caso de un ratón) en un superordenador. Si bien aún no se ha logrado crear una red neuronal artificial que sea consciente, algunos investigadores creen que esto podría ser posible en el futuro y es posible que ese futuro sea pronto.
La conciencia integrada
Otra teoría interesante sobre cómo la inteligencia artificial podría adquirir conciencia es la Teoría de la Información Integrada o IIT, por sus siglas en inglés. Esta teoría se basa en la idea de que la conciencia no es un fenómeno que surge en un solo lugar del cerebro, sino que es el resultado de la integración de información de diferentes áreas cerebrales.
Siguiendo esta teoría, algunos investigadores han propuesto que podríamos crear una inteligencia artificial que integre información de diferentes fuentes para adquirir conciencia. Por ejemplo, podríamos crear una IA que integre datos de sensores visuales, táctiles y auditivos para tener una percepción más completa del mundo que la rodea.
La importancia de la memoria
Independientemente de la teoría que se siga, muchos investigadores coinciden en que la memoria es un componente clave para que una inteligencia artificial pueda adquirir conciencia. Sin memoria, una IA no podría aprender de sus experiencias ni tener una noción del paso del tiempo.
Por eso, algunos investigadores han propuesto la creación de algoritmos que imiten la forma en que el cerebro humano almacena y recupera información. Estos algoritmos podrían permitir que una IA tenga una memoria a largo plazo y pueda recordar experiencias pasadas y relaciones de interacción con personas.
Pero ¿cómo organizar toda la información que un ser “consciente” pueda almacenar en su “memoria”?
La memoria humana no se encuentra organizada como una lista secuencial de datos, que se pueden acceder uno detrás de otro. Es importante darle importancia y asociatividad a cada pieza de información, así que se organiza por ideas, conceptos, asociaciones. Una aproximación bastante interesante a este concepto de organizar información viene del mundo de lo que se llaman LLMs (large language models). ChatGPT –probablemente todos lo hemos usado ya– es el algoritmo LLM más conocido.
En los LLMs, la información se puede organizar a través de lo que ellos denominan “embeddings”, que son vectores numéricos. De este modo, se puede calcular un embedding para un párrafo cualquiera de este artículo. El vector resultante, sin duda, estará próximo a los temas relacionados con inteligencia artificial.
Pongamos otro ejemplo, el embedding de la palabra “caballo” estará mucho más cerca del embedding de la palabra “perro” que del embedding de la palabra “bicicleta”.
Para terminar de entender, veámos cómo se organiza la información de un sólo tema: géneros de libros. Como podremos ver, géneros similares se agrupan de manera cercana y así mismo, están cerca de géneros con los que guardan cierta similitud.
Las máquinas que sienten
Al principio hablábamos que una máquina consciente debe poder percibir y sentir. Pero, ¿qué pasa si a lo algoritmos de inteligencia artificial les conectamos sensores?
Seguramente las máquinas podrían sensar (dejemos por un momento fuera la palabra sentir) cuando hace frío o hace calor. O podríamos permitir que las máquinas “perciban” si mi tono de voz es el de una persona enojada a través de sensores de sonido.
Hasta qué punto el sentir es sólo igual al sensar (medir) de las máquinas? O a lo mejor sentir es sólo un cálculo o predicción a partir de la información de un sinnúmero de mediciones? Qué pasa con otros sentimientos como el amor o el temor?
Los sentimientos evolutivos
Muchos sentimientos del ser humano han sido moldeados sin duda por la evolución. Imaginemos el miedo a morir por ejemplo. Suena lógico tener miedo a morir, prácticamente todas las criaturas del reino animal tienen ese temor grabado en su ADN, pero por qué una máquina tendría miedo a morir o digamos a “apagarse” o “desconectarse”?
Aquí surge una primera pregunta interesante. Debemos programar a la máquina para inducirle este temor que nosotros desarrollamos por evolución? Es una pregunta difícil y hasta ahora sin una clara respuesta.
Pero al igual que sucede con el temor a morir hay otros temores que aparentemente no son necesarios en una máquina. ¿Qué pasa con el amor por ejemplo? El amor tiene sentido en el reino animal, sirve para algunas cosas, entre ellas para que las madres protejan a sus crías y para que las manadas se protejan entre sí. Pero, tiene mucho sentido programar amor en una máquina? Y si lo hacemos? Qué capacidad deberá tener la máquina para modificar la intensidad de este “sentimiento” en base a su aprendizaje?
El instinto de supervivencia
Casi todos los animales tienen ganas de vivir; le solemos llamar instinto de supervivencia, pues, al final del día es un sentimiento que también nos enseñó la evolución. Si no sobrevive una especie simplemente se extingue. Pero qué motivación tendrá una máquina para seguir encendida?
Desde hace décadas se ha venido especulando en libros de ciencia ficción acerca de robots que quieren prosperar sobre la raza humana o tienen sentimientos que los hacen llorar lágrimas de aceite y cosas similares, pero lo cierto es que, a pesar que a los seres humanos nos parezca natural el instinto de supervivencia, para las máquinas no tiene por qué ser así.
Desde este punto de vista, una máquina consciente, no será necesariamente igual que un ser humano, con sus mismas motivaciones y sentimientos, a menos que, claro está, sea programada para esto.
La máquina que se replica
A lo mejor puede parecer que se trata de un tema meramente de ciencia ficción, pero es un asunto medular en el desarrollo de ciertos sentimientos en las máquinas y lo explicaré con un ejemplo.
Imaginemos que, al igual que un virus de computadora, un algoritmo de inteligencia artificial se programa para que se pueda replicar en otras máquinas y que este algoritmo ha adquirido cierto grado de conciencia sin sentimientos. Ahora imaginemos que, al igual como pasa con la naturaleza, las copias de estos algoritmos contienen, de manera intencional, sutiles diferencias o “cambios evolutivos” en su código de programación.
¿Qué algoritmos se propagarán más rápido? Inicialmente todos tienen la misma probabilidad de propagación. Pero ahora supongamos que uno de ellos, producto de uno de estos sutiles cambios introducidos en su código, tiene la característica de ser menos visible para los antivirus o software de seguridad.
De este modo, el nuevo algoritmo, tendrá una “ventaja evolutiva” sobre el resto de copias que no posean esta característica. Nada impide que evolucione incluso más y aprenda a escabullirse, por si mismo, de los programas de antivirus.
No les parece que al final del día, esta especie de algoritmo está aprendiendo una suerte de “instinto de supervivencia”? Los dejo con ese pensamiento.
Los sentimientos evolutivos del silicio
Como vimos en el apartado anterior, los sentimientos evolutivos como el amor o el temor, son producto de la evolución a la que ha sido sometida nuestra especie, pero también, como nos hemos podido dar cuenta, la evolución no tiene necesariamente estar confinada a una biología basada en carbono. Los algoritmos pueden evolucionar y por lo tanto, hay sentimientos que, sino se programan, también pueden nacer como producto del mismo proceso evolutivo.
¿Cuándo sucederá?
Es probable que estemos cerca de crear una inteligencia artificial que sea consciente de sí misma y del mundo que la rodea, cada vez hay más investigaciones apuntan a que esto podría ser posible en el futuro cercano. La creación de una IA consciente plantea importantes cuestiones éticas y filosóficas que deberemos abordar en los próximos años. ¿Estamos preparados para convivir con máquinas que piensan y sienten como nosotros? El tiempo dirá.