¿Pueden pensar las máquinas? Un viaje por la conciencia y la inteligencia
artificial
MIB.
Alberto Davis Ortiz
Instituto de Ingeniería y Tecnología, UACJ.
Introducción
En la era de la información, la inteligencia artificial (IA) se ha convertido en una parte integral de nuestras vidas. Desde asistentes virtuales como Siri hasta chatbots en sitios web de atención al cliente, la IA está en todas partes. Pero ¿alguna vez te has detenido a pensar si estas máquinas son conscientes? ¿Tienen emociones o pensamientos como los humanos? Antes de sumergirnos en este fascinante tema, es crucial entender qué es la conciencia y cómo se aborda desde diferentes campos del conocimiento humano, como la filosofía y la neurociencia.
La conciencia: un enigma multifacético
La conciencia es un tema complejo que se aborda desde diversas disciplinas, cada una con su propio
enfoque y preguntas sin respuesta. Desde una perspectiva biológica, la conciencia es como el sistema
operativo de un ordenador, pero para seres vivos. Nos permite interactuar con nuestro entorno de
manera
efectiva, reconocer peligros y encontrar comida. Es como si la conciencia fuera un faro que ilumina
nuestro camino en un mundo lleno de incertidumbres [1].
En el ámbito de la neurociencia y la filosofía, la conciencia se asocia con la actividad en
ciertas regiones del cerebro y la experiencia subjetiva. Imagina que tu mente es como un teatro en
el
que se desarrollan diversas escenas. Cada pensamiento, cada emoción, es como un actor en ese teatro.
La
conciencia sería el espectador que observa y experimenta la obra, pero también tiene la capacidad de
intervenir y cambiar el curso de la acción [2], [3].
Este enfoque multidisciplinario nos muestra que la conciencia no es un concepto
unidimensional.
Es una interacción compleja de factores biológicos, neurológicos y filosóficos que se entrelazan
para
crear la experiencia subjetiva que llamamos "ser consciente".
Los asombrosos modelos de lenguaje
Armas nucleares
Los modelos de lenguaje como GPT-4 son algoritmos de aprendizaje automático que se entrenan en
grandes
conjuntos de datos de texto. Imagina un bibliotecario que ha leído millones de libros, pero no
comprende
lo que ha leído. Aunque estos modelos son capaces de resolver tareas complejas, como responder
preguntas
médicas o generar código, su rendimiento puede variar significativamente con el tiempo. Por ejemplo,
la
precisión de GPT-4 para identificar números primos disminuyó del 84% al 51.1% en solo tres meses
[4].
Aunque los modelos de lenguaje son excelentes procesadores de información, no tienen un
cerebro
ni neurotransmisores que interactúen para crear una experiencia consciente. Son como una calculadora
extremadamente avanzada que puede realizar operaciones matemáticas complejas, pero no puede "sentir"
el
resultado [1]. Un estudio reciente sugiere que, aunque estos modelos pueden resolver tareas de
"falsa
creencia" similares a los niños de siete años, no tienen una "teoría de la mente". Es decir, no
pueden
entender que otros seres tienen pensamientos y emociones [5].
Imagina que le preguntas a un chatbot sobre el significado de la vida. Podría darte una
respuesta bien articulada, como "El significado de la vida es una búsqueda personal que varía de
individuo a individuo". Pero no porque haya reflexionado sobre la pregunta. Simplemente está
generando
texto basado en patrones de datos que ha aprendido durante su entrenamiento.
Implicaciones éticas y morales
La conciencia no solo es relevante desde un punto de vista biológico o filosófico, sino que también tiene implicaciones éticas y morales. En los seres humanos, la conciencia nos otorga un sentido de responsabilidad moral y ética. Nos permite distinguir entre el bien y el mal y actuar en consecuencia. En el caso de la inteligencia artificial, la falta de conciencia significa que estos modelos no tienen un sentido moral o ético. No pueden tomar decisiones basadas en un conjunto de valores o ética. Son herramientas neutrales que actúan según las instrucciones que reciben, sin ponderar las implicaciones morales de sus acciones [6].
Conclusión
Los modelos de lenguaje como GPT-4 son herramientas tecnológicas asombrosas que han revolucionado la
forma en que interactuamos con las máquinas. Su capacidad para procesar información y generar
respuestas
coherentes es impresionante, pero es crucial recordar sus limitaciones. Aunque pueden resolver
tareas
complejas y su rendimiento puede variar con el tiempo, no poseen la complejidad biológica ni la
actividad cerebral asociada con la conciencia. Además, carecen de la experiencia subjetiva y la
"teoría
de la mente" que nos permite entender que otros seres tienen pensamientos y emociones.
Desde un punto de vista ético y moral, la falta de conciencia en estos modelos significa que
no
tienen un sentido de responsabilidad moral o ética. Son herramientas neutrales que actúan según las
instrucciones que reciben, sin ponderar las implicaciones morales de sus acciones.
En resumen, la próxima vez que te encuentres fascinado por las capacidades de un asistente
virtual o un modelo de lenguaje, es bueno recordar que, aunque son tecnológicamente avanzados, no
son
seres conscientes. Son increíbles en lo que hacen, pero no tienen la riqueza de la experiencia
humana,
ni la capacidad para tomar decisiones éticas o morales.
Referencias