Uno de los retos al seguir las noticias sobre los avances en el campo de la inteligencia artificial es que el término «IA» se utiliza a menudo de forma indiscriminada para significar dos cosas no relacionadas.
El primer uso del término IA es algo que se denomina más precisamente IA estrecha. Es una tecnología poderosa, pero también es bastante simple y sencilla: Se toma un montón de datos sobre el pasado, se utiliza un ordenador para analizarlos y encontrar patrones, y luego se usa ese análisis para hacer predicciones sobre el futuro. Este tipo de IA afecta a todas nuestras vidas muchas veces al día, ya que filtra el spam de nuestro correo electrónico y nos dirige el tráfico. Pero como se entrena con datos del pasado, sólo funciona cuando el futuro se parece al pasado. Por eso puede identificar a los gatos y jugar al ajedrez, porque no cambian a nivel elemental de un día para otro.
El otro uso del término IA es para describir algo que llamamos IA general, o a menudo AGI. Todavía no existe, salvo en la ciencia ficción, y nadie sabe cómo crearla. Una IA general es un programa informático que es tan versátil intelectualmente como un humano. Puede enseñarse a sí mismo cosas completamente nuevas en las que nunca se ha entrenado antes.
La diferencia entre la IA estrecha y la general
En las películas, la AGI es Data de «Star Trek», C-3PO de «Star Wars» y los replicantes de «Blade Runner». Aunque intuitivamente pueda parecer que la IA estrecha es el mismo tipo de cosa que la IA general, sólo una implementación menos madura y sofisticada, este no es el caso. La IA general es algo diferente. Identificar un correo electrónico de spam, por ejemplo, no es computacionalmente lo mismo que ser verdaderamente creativo, lo que sería una inteligencia general.
Solía presentar un podcast sobre IA llamado «Voces en la IA». Era muy divertido porque la mayoría de los grandes profesionales de la ciencia son accesibles y estaban dispuestos a participar en el podcast. Así, acabé con una galería de más de cien grandes pensadores de la IA hablando en profundidad sobre el tema. Había dos preguntas que hacía a la mayoría de los invitados. La primera era: «¿Es posible la IA general?». Prácticamente todos -con sólo cuatro excepciones- dijeron que sí, que es posible. A continuación, les preguntaba cuándo la construiríamos. Las respuestas eran muy variadas, algunas tan pronto como cinco años y otras hasta 500.
¿Por qué?
¿Por qué prácticamente todos mis invitados dicen que la IA general es posible, pero ofrecen una gama tan amplia de estimaciones informadas sobre cuándo la haremos? La respuesta se remonta a una afirmación que hice antes: No sabemos cómo construir una inteligencia general, así que su estimación es tan buena como la de cualquier otro.
«¡Pero espera!», podrías estar diciendo. «Si no sabemos cómo crearla, ¿por qué los expertos están tan mayoritariamente de acuerdo en que es posible?». Yo también les hacía esa pregunta y solía obtener una variante de la misma respuesta. Su confianza en que construiremos una máquina verdaderamente inteligente se basa en una única creencia fundamental: que las personas somos máquinas inteligentes. Como somos máquinas, dice el razonamiento, y tenemos inteligencia general, construir máquinas con inteligencia general debe ser posible.
Humanos frente a máquinas
Sin duda, si las personas son máquinas, esos expertos tienen razón: La inteligencia general no es simplemente posible, sino inevitable. Sin embargo, si resulta que las personas no son meras máquinas, entonces hay algo en las personas que quizá no pueda reproducirse en silicio.
Lo interesante de esto es la desconexión entre ese centenar de expertos en IA y todos los demás. Cuando doy charlas sobre este tema al público en general y les pregunto quién cree que son máquinas, aproximadamente el 15% levanta la mano, no el 96% de los expertos en IA.
En mi podcast, cuando me oponía a esta suposición sobre la naturaleza de la inteligencia humana, mis invitados solían acusarme -muy educadamente, por supuesto- de caer en una especie de pensamiento mágico que en el fondo es contrario a la ciencia. «¿Qué otra cosa podríamos ser si no máquinas biológicas?».
Es una pregunta justa e importante. Sólo conocemos una cosa en el universo con inteligencia general, y somos nosotros. ¿Cómo es que tenemos un superpoder creativo tan poderoso? Realmente no lo sabemos.
La inteligencia como superpoder
Intenta recordar el color de tu primera bicicleta o el nombre de tu profesor de primer grado. Tal vez no haya pensado en ninguno de los dos en años, y sin embargo su cerebro probablemente haya sido capaz de recuperarlos con poco esfuerzo, lo cual es aún más impresionante si se tiene en cuenta que los «datos» no se almacenan en el cerebro como en un disco duro. De hecho, no sabemos cómo se almacenan. Puede que lleguemos a descubrir que cada una de los cien mil millones de neuronas de su cerebro es tan complicada como nuestro superordenador más avanzado.
Pero ahí es donde empieza el misterio de nuestra inteligencia. A partir de ahí la cosa se complica. Resulta que tenemos algo llamado mente, que es diferente del cerebro. La mente es todo lo que ese kilo de sustancia viscosa que tenemos en la cabeza puede hacer y que parece que no debería poder hacer, como tener sentido del humor o enamorarse. Tu corazón no hace eso, ni tampoco tu hígado. Pero de alguna manera lo haces.
Ni siquiera sabemos con certeza que la mente sea únicamente un producto del cerebro. No son pocas las personas que nacen sin hasta el 95% de su cerebro y, sin embargo, tienen una inteligencia normal y a menudo ni siquiera saben de su condición hasta más tarde en la vida, cuando se someten a un examen de diagnóstico. Además, parece que tenemos mucha inteligencia que no está almacenada en nuestro cerebro, sino que está distribuida por todo nuestro cuerpo.
IA general: la complejidad añadida de la conciencia
Aunque no entendamos el cerebro o la mente, la cosa se pone más difícil a partir de ahí: La inteligencia general bien podría requerir la conciencia. La conciencia es la experiencia que se tiene del mundo. Un termómetro puede decir con precisión la temperatura, pero no puede sentir el calor. Esa diferencia, entre saber algo y experimentar algo, es la conciencia, y tenemos pocas razones para creer que los ordenadores puedan experimentar el mundo más que una silla.
Así que aquí estamos con cerebros que no entendemos, mentes que no podemos explicar y, en cuanto a la conciencia, ni siquiera tenemos una buena teoría sobre cómo es posible que la mera materia tenga una experiencia. Sin embargo, a pesar de todo esto, la gente de la IA que cree en la IA general confía en que podemos replicar todas las capacidades humanas en los ordenadores. A mi entender, ese es el argumento que parece apelar al pensamiento mágico.
No lo digo para despreciar o trivializar las creencias de nadie. Pueden ser correctas. Sólo considero la idea de la IA general como una hipótesis no demostrada, no como una verdad científica evidente. El deseo de construir una criatura así, y luego controlarla, es un antiguo sueño de la humanidad. En la era moderna, tiene siglos de antigüedad, comenzando quizás con el Frankenstein de Mary Shelley, y manifestándose en mil historias posteriores. Pero en realidad es mucho más antiguo. Desde que existe la escritura, tenemos imaginaciones de este tipo, como la historia de Talos, un robot creado por el dios griego de la tecnología, Hefesto, para vigilar la isla de Creta.
En algún lugar de nuestro interior existe el deseo de crear esta criatura y dominar su asombroso poder, pero nada de lo que ha sucedido hasta ahora debe tomarse como una indicación de que realmente podemos hacerlo.
CambioDigital OnLine | Fuente WEB