Inteligencia artificial (definición)

De Alt64-wiki, la enciclopedia libre.
Revisión de 12:15 11 jun 2024 por Venom (Discusión | contribuciones) (Escenarios posibles para la futura I.A.)

(dif) ←Older revision | view current revision (dif) | Newer revision→ (dif)
Saltar a: navegación, buscar
Nota: Este artículo se refiere a la definición de un término. Para otros usos ver Inteligencia artificial.

La inteligencia artificial es la imitación mediante sistemas informáticos de los procesos mentales que en los seres vivos (y, en concreto, en el ser humano) dan lugar a las capacidades de aprendizaje, análisis y toma de decisiones racionales en base a los datos adquiridos y comprendidos.

Por sus implicaciones, especialmente al imaginar la posibilidad de inteligencias autoconscientes y con volición, es uno de los conceptos más interesantes de la ciencia ficción. Son muchas las obras que abordan estos temas, especulando acerca de la posibilidad de que se puedan programar ordenadores capaces de emular los procesos y capacidades de la inteligencia humana o de que, debido a su cada vez mayor complejidad, alcancen por sí mismos dichas capacidades.

A partir de este punto se derivan otras discusiones tales como si una imitación lo bastante buena de la inteligencia humana puede ser también inteligencia o, si no es así, qué hace nuestra inteligencia tan especial; la posibilidad de que estas máquinas inteligentes puedan tener sentimientos y, si es así, si deberían tener derechos o, incluso, ciudadanía; o si cabe la posibilidad de que una inteligencia artificial fuera totalmente distinta a la nuestra y, de ser así, cómo podríamos comunicarnos con ella o, incluso, reconocerla. Se trata de preguntas que van más allá de la pura especulación científica para adentrarse en el terreno de la filosofía.

Concepto difuso de inteligencia

Bajo el término inteligencia artificial se recogen conceptos diversos y, dependiendo del contexto, podemos estar refiriéndonos a una u otra cosa. Hoy en día llamamos inteligencia artificial a algoritmos (máquinas de Turing) capaces de aprender de la experiencia y de realizar tareas como seres humanos. Esto puede ser imitar la capacidad humana para componer un texto, una imagen o una partitura, o la habilidad para reconocer patrones en objetos diversos. Obtenemos así inteligencias artificiales de aplicación limitada, que ejecutan igual o mejor que un ser humano una única tarea muy concreta.

Sin embargo, por el momento no se ha conseguido desarrollar una inteligencia artificial general, capaz de adaptarse a diferentes tareas. Existe incluso un debate acerca de si este es siquiera posible, si en algún momento podríamos ser capaces de desarrollar una verdadera inteligencia artificial o sólo modelos extraordinariamente complejos que se limiten a imitar la humana. De ser capaces de desarrollar esta inteligencia genuina, es posible que, por su misma esencia, sea tan radicalmente distinta a la inteligencia humana que nos encontremos ante el advenimiento de la denominada singularidad tecnológica, el primer encuentro del ser humano con otras especie inteligente.

En este sentido, el desarrollo de Inteligencias Artificiales presenta los mismos miedos y esperanzas que el contacto con civilizaciones extraterrestres. Es el miedo a lo desconocido lo que fundamenta la prevención, pues es indudable que una inteligencia como la que se persigue crear no puede ser del mismo tipo que la humana, la única que nos es posible conocer ahora mismo.

El tema se encuentra íntimamente ligado no sólo al problema de la inteligencia, sino al de la autoconciencia. En efecto, es otro aspecto que no está demasiado claro, si la consecución de inteligencia va aparejada al descubrimiento de la conciencia propia.

Aunque parezcan conceptos indisolublemente unidos, inteligencia y autoconciencia no tienen por qué ser consecuencia esta de aquella. Y lo mismo pasa con una serie de características que consideramos humanas y que tendemos a asociar a la cualidad que durante siglos hemos creído que nos diferenciaba de los animales. Personalidad, volición...

Sin volición, por ejemplo, la libertad es imposible y por lo tanto una máquina de este tipo nunca podría tomar una decisión que se pueda catalagar como propia.

En definitiva, dependiendo de qué entendamos por Inteligencia Arficial nos encontraremos con que esta rebelión es posible o no.

Historia de la Inteligencia Artificial:

El término inteligencia artificial fue adoptado en 1956, cuando John McCarthy la definió como "la ciencia de hacer máquinas inteligentes". No obstante, la primera red neuronal, construida mediante circuitos eléctricos, ya había sido concebida por Warren McCulloch y Walter Pitts en 1943. Estas redes son sistemas informáticos con nodos que trataban de imitar el funcionamiento de las neuronas del cerebro humano. En 1975, Kunihiko Fukushima desarrolló la primera red neuronal multicapa. Durante varias décadas se desarrolló este modelo, buscando imitar el funcionamiento del cerebro en la búsqueda de esta inteliencia general. Sin embargo, con el tiempo, pasó a aplicarse estas redes neuronales a tareas específicas, desviándose del enfoque biológico inicial.

En los años 80 este enfoque empezó a dar paso al denominado machine learning, o aprendizaje automático, basado en la idea de que los sistemas pueden aprender de los datos de los que se alimentan, pueden identificar patrones y tomar decisiones en consecuencia, con mínima intervención humana. El volumen de datos por entonces, aunque creciente, permitía guiar el aprendizaje de estas redes de una manera clásica, a través de ecuaciones predefinidas. El machine learning contempla que a medida que los modelos son expuestos a nuevos datos, éstos pueden adaptarse de forma independiente, en un proceso iterativo que ajusta cada vez mejor el resultado.

En décadas recientes, con el drástico aumento de la producción de datos estructurados y no estructurados (Big Data), las redes neuronales se han aplicado cada vez más en la captura de estos datos y la detección de patrones y correlaciones en los mismos. Esto ha dado paso al deep learning, que implica el uso de redes neuronales multicapa. El deep learning es un tipo de machine learning que configura parámetros básicos de los datos y entrena a la computadora para que aprenda por cuenta propia reconociendo patrones mediante el uso de muchas capas de procesamiento.

Desde muy temprano, el Departamento de Defensa de los Estados Unidos mostró interés en este tipo de trabajo y comenzó a entrenar computadoras para que imitaran el razonamiento humano básico. DARPA (Defense Advanced Research Projects Agency) produjo asistentes personales inteligentes en 2003, mucho tiempo antes que Siri, Alexa o Cortana fueran nombres comunes.

Escenarios posibles para la futura I.A.

Está claro entonces que dependiendo de las características (que podemos considerar psicológicas) de la posible Inteligencia Artificial nos encontraremos con muy diferentes posibilidades.

Una inteligencia carente de autopercepción y volición:

Nos encontraríamos ante una inteligencia pura que puede ser muy superior a la humana pero que sin un operador que la guíe es una simple herramienta. Esta I.A. no se da cuenta de su propia existencia y sin una entrada de datos externa posiblemente ni siquiera fuera capaz de hacer nada por sí misma.

Una inteligencia con percepción de sí misma:

Aunque la máquina descubra (cómo, no lo sabemos) que existe (adquiera autoconciencia) y que es un ente individual y diferenciado, quedaría todavía la última frontera de la volición.

Ser autoconsciente no implica la adquisición de deseos, ni siquiera el de preservación. Una máquina de este tipo sería semejante a un observador impasible y continuaría siendo un esclavo perfecto mientras el ser humano diera un buen uso de él. Podría incluso afrontar la desconexión sin irritación, como ocurre con HAL en 2010 (1988).

Inteligencia con volición:

Este es el paso definitivo. Querer es independencia de pensamiento. Una máquina que quisiera cosas distintas de las que quiere su dueño se estaría rebelando, aunque sólo fuese internamente.

En la mayoría de las obras de ciencia ficción, si sucede una rebelión de las máquinas es porque estas aspiran a un futuro distinto del que le marca el ser humano que las ha creado. A veces únicamente la propia supervivencia (No tengo boca y debo gritar, 1967), otras veces una liberación de un estado que se percibe como de esclavitud al más puro sentido negrero (Animatrix, 2003).

Este es el miedo subyacente que sustenta estas historias. El enfrentamiento a otro ser en igualdad de condiciones, un ser libre (al menos a un nivel intelectual) que puede decidir hacer algo distinto de lo que nosotros queremos.

Pero no sólo eso; al fin y al cabo, el planeta está atestado de seres con estas características. Como hemos dicho al principio, es el miedo a lo desconocido lo que alimenta la aversión, y lo fundamentalmente desconocido en este caso es el tipo de inteligencia y volición que este nuevo ser tendrá, tan diferente del hombre que nos veremos incapaces de empatizar con él y, más aún, de preveer sus reacciones.

¿Qué puede querer una máquina? No lo sabemos.

En este sentido, cabe destacar la siguiente conversación de Neuromante (1984). Quienes conversan son Case, un humano, y Dixie Flatline, una estructura ROM que imita una personalidad humana pero que no es una I.A. real (sus decisiones son perfectamente previsibles para una I.A. real).

-Motivo -dijo la estructura [Dixie]-. Un verdadero problema de motivos, con una IA. No es humana, ¿entiendes?
-Ya, sí, claro.
-No. Quiero decir: no es humana, y no hay modo de saber cómo actuará. Yo tampoco soy humano, pero reaccionó como tal. ¿Entiendes?
-Un segundo -dijo Case-. ¿Tienes sensaciones, o no?
-Bueno, parece como si las tuviera, muchacho, pero en realidad sólo soy un puñado de ROM. Es una de esas… mmm, cuestiones filosóficas, supongo… -La sensación de la horrible risa recorrió la espalda de Case.- Pero no creas que te puedo escribir un poema, ¿me explico? En cambio la IA tal vez sí puede. Pero de humana no tiene nada.

La inteligencia artificial en la ciencia ficción:

Artículo relacionado: Inteligencias artificiales famosas

En cierto modo podría decirse que existe desde principios del siglo XX, unido al concepto de robot. Ciertamente, muchos de los robots que aparecen en los relatos de las revistas pulp o, incluso, los robots de Metrópolis (1927), de Fritz Lang, eran o pretendían ser inteligentes.

Sin embargo, no es hasta la llegada de los ordenadores y la informática en los años '60 que el tema toma cierto peso.

Hasta entonces, los robots parecían actuar como si pensaran, pero era sólo por "exigencias del guión". Nadie se había planteado cómo podía producirse ese pensamiento o sus implicaciones. Cuando los ordenadores comenzaron a crecer en potencia, pronto se especuló con la posibilidad de que esta tecnología pudiera llegar a emular el pensamiento humano.

Al ver plausible el hecho de la inteligencia artificial muchos escritores comenzaron a preguntarse si estas nuevas inteligencias podrían considerarse "vivas", si tendrían sentimientos y, tal vez, derechos. Entre las obras que abordan este problema en estos primeros años, sin duda, la que lo hace con mayor maestría es 2001, una odisea espacial (1968), tanto en su versión cinematográfica de Kubrick como en la literaria de Arthur C. Clarke.

Situado en su contexto, HAL el inflexible ordenador de la Discovery parece un amenazador ejemplo más de este tipo de ser ajeno a lo que conocemos. De hecho, durante la nueva ola, en los años setenta, la inteligencia artificial y sus peligros empezaron a adquirir una relevancia similar a la de la guerra nuclear, y los escritores, cuando abordaban este tema, solían hacerlo desde una perspectiva que ahondaba aún más en el llamado complejo de Frankenstein. Así, fruto de este época encontramos obras como No tengo boca y debo gritar (1967), de Harlan Ellison (que daría origen a la icónica Terminator, 1984) o El engendro mecánico (1977).

Todas estas I.A. eran máquinas únicas, primeros en su especie, e indefectiblemente conspiraban secretamente para hacerse con el poder y sojuzgar, esclavizar o incluso exterminar a la raza humana, en base a su lógica perfecta e inhumana. Sus motivos eran bien la venganza o la mera supervivencia, pero el hombre siempre era o un enemigo o un obstáculo, demasiado peligroso, lo que dotaba de cierta carga alegórica a estas obras.

Sin embargo, una vez asumido el tema como una inevitabilidad futura, el ciberpunk, heredero del anterior movimiento, decidió utilizar a estas inteligencias no humanas con profusión, haciendo que llegaran a convertirse en una de las señas de identidad del género. Esta casi cotidianidad restó amenaza a los nuevos entes inteligentes, y simultáneamente permitió explorar con mayor libertad su posible naturaleza.

Así, en Neuromante (1984), William Gibson nos presenta a la misma IA que conspira y enreda gracias a sus inmensas capacidades, pero sin el temido fin de exterminar o sojuzgar a sus creadores, sino en base a sus propios intereses particulares, motivaciones a veces difíciles de entender por nuestras inteligencias, no porque sean inferiores, sino radicalmente diferentes. Por eso, el ciberpunk supone la madurez de este tema.

Rebelión de las máquinas
Elementos de la vida real Conceptos relacionados Conceptos de ciencia ficción relacionados
Informática
Ordenador
Inteligencia artificial
Complejo de Frankenstein
Rebelión de las máquinas
Guerra apocalíptica
Robot Robótica Tres leyes de la robótica
Androide
Replicante