Inteligencia Artificial que no es ficción científica

La Inteligencia Artificial (IAtrata de explicar el funcionamiento mental basándose en el desarrollo de algoritmos para controlar diferentes cosas, es entonces, la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico; combina varios campos, como son la robótica, los sistemas expertos y otros, los cuales tendrán como objetivo tratar de crear máquinas que puedan pensar por sí solas, y hasta la fecha existan varios estudios y aplicaciones, dentro de las que se encuentran las redes, el control de procesos y los algoritmos genéticos.


Muchos son los estudios que consideran al cerebro como tal vez uno de los "Sistemas Complejos" por antonomasia. Sin duda los estudios sobre el cerebro están realizados por multiples disciplinas y desde hace unos años muchos físicos e ingenieros se han interesado por los estudios relacionados con la "modelización" del cerebro, donde se incluyen técnicas matemáticas provenientes de la dinámica no lineal y la teoría del caos, del análisis de series temporales no lineales, de las redes complejas, así como la "modelización" electrónica de las neuronas. Expresó Miguel A. F. Sanjuán, en la página de "Complejidad, Exploraciones en la Ciencia de los Sistemas Complejos".

Al definirse la neurona, en 1943, con el modelo neuronal propuesto por Warren S. McCulloch (1898 - 1969) y Walter Pitts (1923 - 1969), como un dispositivo binario con varias entradas y salidas, se establece el principio, la base de este concepto, ellos toman como objeto de estudio al cómputo realizado por las neuronas; es decir; no se ocupan de los aspectos fisiológicos y morfológicos de las neuronas, sino que se abocan a estudiar las características y capacidades computacionales del modelo que proponen, caracterizándolo como un dispositivo lógico; es decir, el área en la que se desarrolla este artículo es la lógica. De esta forma, el modelo neuronal es planteado a través de un modelo matemático. Esto se puede verificar fácilmente a partir de las referencias que ocupan, las cuales todas caen dentro de la lógica matemática. Esto trae como consecuencia que el lenguaje que ocupan para las descripciones de las características de su neurona sea totalmente matemático, siguiendo un gran formalismo en sus demostraciones y con una notación poco común, lo que hace muy complejo el entender los planteamientos del artículo, en el año de su publicación.

Parten de cinco consideraciones (supuestos) acerca del comportamiento de las neuronas. Dichas consideraciones las plantean de la siguiente forma:
La actividad neuronal es un proceso "todo o nada", es decir, cero o uno.
Un cierto número fijo de "sinápsis" debe ser excitado dentro de un período de adición latente en orden de excitar una neurona en cualquier intervalo de tiempo, y este número es independiente de la actividad previa y la posición de la neurona.
El único retardo significativo dentro del sistema es el retardo "sináptico".
La actividad de cualquier sinápsis inhibitoria previene absolutamente la excitación de la neurona en ese intervalo de tiempo.
La estructura de la red no cambia con el tiempo.

Con este grupo de supuestos, comienzan trabajando con arreglos lineales de neuronas, es decir, consideran que no hay vías de retroalimentación entre neuronas, y parten de una serie de simplificaciones en las que consideran que el umbral de disparo en las neuronas adopta valores discretos, y que estos umbrales también se mantienen inalterados. Estas últimas consideraciones les permiten demostrar el funcionamiento de su neurona, para posteriormente demostrar que mediante la realización de diversos arreglos y conexiones de neuronas de este tipo, entre los que se encuentran algunos arreglos cíclicos de neuronas, es posible producir los mismos resultados que con neuronas con umbrales cambiantes con el tiempo.

El modo de operación de la Neurona McCulloch-Pitts es simple. Durante el tiempo de integración, la neurona responde a la actividad de su sinápsis, la cual refleja el estado de las células presinápticas. Si no hay sinápsis inhibitorias activas, la neurona suma sus entradas sinápticas y verifica si la suma de ellas alcanza o excede su nivel de umbral. Si lo hace, entonces la neurona se vuelve activa. Si no, la neurona permanece inactiva. En caso de que exista alguna sinápsis inhibitoria activa, la neurona permanece inactiva. Para profundizar en el tema recomiendo la página medicinaycomplejidad, organización que publica PDF de "El modelo neuronal de McCulloch-Pitts, una interpretación comparativa". 

En el verano del año de 1956 se volvió a tocar este tema y se establecieron las bases de la (IA) como un campo independiente dentro de la informática. Ello sucedió en el desarrollo del "Congreso de Dartmouth", en el un grupo de 20 profesionales de distintas materias centraron su atención en el incipiente mundo de las computadoras y su posible, pero potencial capacidad para exhibir un comportamiento inteligente. Trabajaron sobre la premisa de que cualquier aspecto del aprendizaje o cualquier otro rasgo inteligente puede ser descrito con tanta precisión que una máquina podría simularlo. Aspectos como el lenguaje natural y su procesamiento, las redes neuronales o la teoría de la computación fueron tratados en los dos meses de duración.

Participaron, entre otros: Marvin Minsky (1927 - 2016), Claude Shannon (1916 - 2001), Nathaniel Rochester (1919 - 2001), Roger Penrose (8 agosto 1931) (ganador de premio Nobel de Física este 2020), John McCarthy (1927 - 2011), John Nash (1928 - 2015) (el personaje que inspiró la película “Una Mente Maravillosa”), y Allen Newell (1927 -1992).

El carácter ecléctico de este grupo es notorio, sin ir más lejos citaré a: Marvin Minsky, uno de los padres de la Inteligencia Artificial, que se graduó en Artes por la Universidad de Harvard, aunque también adquirió conocimientos en diversas disciplinas técnicas y se graduó en Matemáticas. Y, todo sea dicho, también era un buen pianista. Shannon era matemático, ingeniero eléctrico y criptógrafo; McCarthy, científico cognitivo; Roger Penrose, matemático, filósofo y físico. Todos ellos convivieron bajo el paraguas de la incipiente ciencia de computadores, como parte de un movimiento recién salido del cascarón de empresas como IBM o Cray.   Y todo ello sobre el precedente de Alan Turing (1912 - 1954), matemático, experto en lógica, criptoanálista, filósofo y biólogo teórico, que trabajó sobre la teoría de la computación publicando un trabajo en 1936, que supondría el desarrollo posterior de toda la ciencia computacional (personaje que inspiró la película "Enigma").

Si John McCarthy fue el que dio nombre a la (IA), Marvin Minsky puede presumir de ser el creador de la primera red neuronal digital de la historia. Fue en 1951, para experimentar con la noción de "Aprendizaje Máquina" o "Machine Learning", otro término de absoluta actualidad en nuestros días.  Y sobre el de Claude Shannon, que modeló la cantidad de información que transportan las señales, allá en 1950.

Fue en el año de 1959 que Marvin Minsky y John McCarthy, fundaron el MIT Laboratorio de Ciencias de la Computación e Inteligencia Artificial.

De todos modos, en los comienzos de la (IA), se pecó de un excesivo optimismo que condujo a una “época oscura” entre el año 1974 y 1980. Las partidas presupuestarias que se asignaron a los primeros proyectos no dieron los frutos esperados y se dejaron de financiar iniciativas en este campo. El desánimo cundió entre algunos profesionales. En parte, el responsable fue el propio Minsky y su libro "Perceptrons", que cuestionaba la validez de los métodos desarrollados hasta ese momento (1969).

Después habría varios momentos de recuperación del interés, como en la década de los 80, pero en forma de los llamados sistemas expertos. Más que inteligencia artificial, se trataba de un conjunto de datos y algoritmos capaces de extraer información a partir de los datos en materias concretas. De todos modos, eran caros de mantener y se basaban en reglas del tipo “if… then”, en las que el conocimiento estaba implícito y no se derivaba de “aprendizaje”. Es decir, un sistema experto necesita de un conocimiento previo, lo cual es radicalmente distinto al aprendizaje usando, por ejemplo, redes neuronales.

Para la década de los años sesenta del siglo Veinte, la (IA) no tuvo mucho éxito, pues requería mucho capital y la mayoría de las tecnologías eran propias de los grandes centros de investigación, y poco a poco se olvidaron los logros alcanzados. Entre otras razones, ese olvido se debía a las limitaciones del hardware y por los métodos empleados en la programación de "Deep Blue", con una importante carga de conocimiento previo del ajedrez, más que como resultado de un aprendizaje automatizado como sucede ahora.

No fue sino hasta épocas posteriores que se lograron algunos avances significativos en una de sus ramas, la llamada "Sistemas Expertos". En 1989, los primeros resultados victoriosos en ajedrez por parte de “máquinas” como "Deep Thought", que ganaron el campeonato nacional de ajedrez, abrieron el camino para "Deep Blue", que ganó a Kasparov en 1996. Sin embargo, estos éxitos se quedaron relativamente olvidados hasta la llegada de la nueva época dorada de la (IA) en la que estamos inmersos, con proyectos como AlphaGo o teléfonos inteligentes como los que hoy día son comunes en la vida cotidiana. 

Desde principios del Siglo XXI, el interés por la IA se ha recuperado. Los progresos en el hardware, la adopción de la computación en la nube y fenómenos como el "Big Data" han hecho posible que se retomen proyectos que se habían dejado de lado en su día, como el de "reconocimiento" y "procesamiento del lenguaje natural". Sobre todo, porque ya se cuenta con la capacidad de procesamiento necesaria para retomar el trabajo con las redes neuronales, capaces de aprender a través del entrenamiento con ingentes cantidades de datos que, a día de hoy, están disponibles de forma generalizada.

Entonces se fortalece la idea de construir una máquina, una que pueda pensar, esto es que realice cosas que nosotros los humanos realizamos y hacemos. Para que las computadoras se ganen el nombre de inteligentes, teóricamente pero en la práctica, primero tienen que ser capaces de mantener, por ejemplo, un diálogo con un ser humano, ya que las computadoras únicamente pueden realizar o hacer lo que se les indique, pero nunca sabrán lo que están realizando pues no están conscientes de lo que hacen. La famosa toma de consciencia.

Una de las pretensiones de la (IA) es construir réplicas de la compleja red neuronal del cerebro humano e intentar imitar el comportamiento del cerebro humano con una computadora. Intentando asemejar el comportamiento inteligente que se observa en la naturaleza; es decir, trata de resolver problemas y tomar decisiones similares a las que toman los seres humanos al afrontar la vida diaria, realizando programas de computadora que aumenten la capacidad o “inteligencia“ de las mismas; el objetivo de las investigaciones de la (IA) es, aumentar la utilidad de las máquinas y sus procesos.

Las redes neuronales son programas de la (IA) capaces de simular algunas de las funciones de aprendizaje del ser humano. Una red neuronal obtiene experiencia analizando automática y sistemáticamente los datos para determinar reglas de comportamiento; con base en ellas, puede realizar predicciones sobre nuevos casos.

Estas técnicas se aplican a problemas de clasificación y series de tiempo e identifican conexiones con cosas que otras técnicas no pueden, porque utilizan relaciones lineales y no lineales.

Este tema se puede consultar en la página de la Revista de la Universidad Veracruzana "La Ciencia y el hombre", Vol. 17 No.3 realizada por Luis Alberto García Fenández, que es miembro de la Licenciatura en Informática de la Facultad de Contabilidad y Administración de Tecomán, en la Universidad de Colima.

La Inteligencia Artificial (computacional) disfruta aún de su infancia. Pero, es claro que, se ha avanzado más en los últimos años que en las décadas precedentes. Ya estamos cerca de conseguir un "HAL 9000" en la vida real, al asentarse las bases tecnológicas para democratizar campos como "Aprendizaje Máquina" (Machine Learning ML) usando métodos como el "Aprendizaje Profundo" (Deep Learning DL) sobre redes neuronales.

El límite teórico es que la nueva computadora fuese capaz de superar el "Test de Turing". Este test que es una forma de medir la capacidad de una entidad artificial para mostrar un comportamiento inteligente equivalente o imposible de diferenciar del de un humano.

Y aquí dejamos a un lado la ciencia ficción, "HAL 9000", como la película, se remonta al año 1968, que fue cuando Arthur C. Clarke y Stanley Kubrick, a partir de un relato corto de Clarke titulado “The Sentinel” que fue escrito en 1951, desarrollaron la idea de la película y novela «2001: Una Odisea en el Espacio». Y Marvin Minsky fue la persona que ayudó a dotar de credibilidad a la (IA) de la película. Pero ahora un grupo de investigadores de amplia diversidad en sus especialidades, se han vuelto famosos por la noticia de la creación de "Paulinet", y ya no es ciencia ficción.

Y lo logrado en este año en materia de Inteligencia Artificial es:

El desarrollo de una red neuronal artificial, ha posibilitado la resolución de la "Ecuación de Schrödinger" de aplicación en el terreno de la QuímicaLos resultados se han publicado en la revista "Nature Chemistry".

Los encargados del desarrollo dirigidos por el profesor y doctor en Ciencias Computacionales en el Centro Interdisciplinario para las Ciencias Computacionales de la Universidad de Heidelberg, Frank Noé, que dirigió el equipo inmerso en la ciencia que ya no es ficción, le ha nombrado "Paulinet", esto en honor al destacado Wolfgang Ernst Pauli (1900 -1958), quien entre sus contribuciones, aportó la llamada "Interpretación de Pauli".

Europa Press, es la agencia noticiosa que detalla la noticia, desde Madrid el día 24 de diciembre de este 2020, precisa que un equipo de científicos de la Freie Universität Berlin desarrollaron un método de Inteligencia Artificial (IA) para calcular el estado fundamental de la ecuación de Schrödinger en química cuántica.

PauliNet, una estimación de función de onda de aprendizaje profundo que logra soluciones casi exactas de la ecuación electrónica de Schrödinger para moléculas con hasta 30 electrones.
PauliNet, una estimación de función de onda de aprendizaje profundo que logra soluciones casi exactas de la ecuación electrónica de Schrödinger para moléculas con hasta 30 electrones. Foto tomada del Twitter de @NatureChemistre.
La Ecuación de Schrödinger, desarrollada por el físico austriaco Erwin Schrödinger (-) en 1925, por la que ganó el premio Nobel de Física correspondiente al año de 1933, describe la evolución temporal de una partícula sub-atómica masiva de naturaleza ondulatoria y no relativista.

Esta es de importancia central en la teoría de la "Mecánica Cuántica", donde representa para las partículas microscópicas un papel análogo a la "Segunda Ley de Newton" vigente en la mecánica clásica, esa con la que acostumbramos a explicar nuestra realidad. Las partículas mencionadas incluyen a los electrones, así como sistemas, tales como, núcleos atómicos.

El objetivo de la "Química Cuántica" es predecir las propiedades químicas y físicas de las moléculas basándose únicamente en la disposición de sus átomos en el espacio, evitando la necesidad de experimentos de laboratorio que consumen mucho tiempo y recursos.

En principio, esto se puede lograr resolviendo la "Ecuación de Schrödinger", pero en la práctica esto es extremadamente difícil.

Hasta ahora había sido imposible encontrar una solución exacta para moléculas arbitrarias que se puedan calcular de manera eficiente, pero el equipo de científicos de la Freie Universität desarrolló un método de aprendizaje profundo que puede lograr una combinación sin precedente de precisión y eficiencia computacional.

La IA ha transformado muchas áreas tecnológicas y científicas, desde la visión por computadora hasta la ciencia de los materiales. “Creemos que nuestro enfoque puede tener un impacto significativo en el futuro de la química cuántica”, destacó en un comunicado el doctor Frank Noé, quien dirigió el proyecto.

La función de onda es fundamental tanto para la química cuántica como para la ecuación de Schrödinger, un objeto matemático que especifica completamente el comportamiento de los electrones en una molécula. Es una entidad de alta dimensión y, por tanto, es extremadamente difícil captar todos los matices que codifican cómo los electrones individuales se afectan entre sí. De hecho, muchos métodos de la química cuántica abandonan por completo la expresión de la función de onda y, en cambio, sólo intentan determinar la energía de una molécula determinada. Sin embargo, esto requiere que se hagan aproximaciones, lo que limita la calidad de predicción de tales técnicas.

Otros métodos la representan con el uso de una inmensa cantidad de bloques de construcción matemáticos simples, pero son tan complejos que son imposibles de poner en práctica para más de un simple puñado de átomos. “Escapar del equilibrio habitual entre precisión y costo computacional es el mayor logro de la química cuántica”, explicó Jan Hermann, también de la  Freie Universität Berlin, quien diseñó las características clave del método en el estudio. “Hasta ahora, el valor atípico más popular es la teoría funcional de la densidad extremadamente rentable. Creemos que el enfoque profundo del Monte Carlo Cuántico, el enfoque que proponemos, podría ser igualmente, si no más, exitoso. Ofrece una precisión sin precedente con un costo computacional todavía aceptable”.

La red neuronal profunda diseñada por el equipo del profesor Noé es una nueva forma de representar las funciones de onda de los electrones. “En lugar del enfoque estándar de componer la función de onda a partir de elementos matemáticos relativamente simples, diseñamos una red neuronal artificial capaz de aprender los pautas complejas de cómo se ubican los electrones alrededor de los núcleos”, señaló.

“Una característica peculiar de las funciones de onda electrónicas es su antisimetría. Cuando se intercambian dos electrones, la función de onda debe modificar su signo. Tuvimos que incorporar esta propiedad en la arquitectura de la red neuronal para que el enfoque funcione”, agregó Hermann. Esta característica, conocida como “principio de exclusión de Pauli”, es la razón por la que los autores llamaron a su método PauliNet.

El  "Principio de Exclusión de Pauli" es un principio de la mecánica cuántica que sostiene que dos o más partículas idénticas de tipo fermión, es decir, partículas con espín semi-entero, no pueden estar u ocupar en el mismo estado cuántico simultáneamente dentro del mismo sistema. Es conveniente recordar que fue formulado inicialmente como principio, sin embargo, posteriormente se comprobó que era derivable de supuestos más generales: de hecho, es una consecuencia del "Teorema de la Estadística del Espín".

Históricamente (con anterioridad a 1925) el principio de exclusión de Pauli fue formulado para explicar la estructura atómica y la organización de la tabla periódica, y consistía en imponer una restricción sobre la distribución de los electrones en los diferentes estados cuánticos. Posteriormente, el análisis de sistemas de partículas idénticas llevó a la conclusión de que cualquier estado debía tener una simetría bajo intercambio de partículas peculiar, lo cual tenía como consecuencia que existían dos tipos de partículas: "fermiones", que satisfarían este principio, y "bosones", que no lo satisfarían.

El principio estipula que dos "fermiones· no pueden ocupar el mismo "estado cuántico" dentro del mismo sistema al mismo tiempo, mientras que, en el caso de los electrones estipula que es imposible, para dos de ellos en un mismo átomo, que puedan tener los mismos cuatro valores para los "números cuánticos", donde esos cuatro números son: el número cuántico principal, el número cuántico de momento angular, el número cuántico magnético y por último, el número cuántico de espín.

Como se ha dicho, el principio de exclusión de Pauli solo es aplicable a "fermiones", esto es, partículas que forman estados cuánticos antisimétricos y que tienen "espín" semientero.

Ejemplos de fermiones, por ejemplo, son los "electrones" y los "quarks" (estos últimos son los que conforman los protones y los neutrones, Up o Arriba y Down o Abajo).

Ahora bien, partículas como el "fotón" y el (aún hipotético) "gravitón", no obedecen a este principio, puesto que son "bosones", esto es, que forman estados cuánticos simétricos y tienen espín entero. Como consecuencia, una multitud de fotones puede estar en un mismo estado cuántico de partícula, como en los "láseres".

Además de este principio, las funciones de onda electrónicas también tienen otras propiedades físicas fundamentales, y gran parte del éxito innovador de PauliNet es que integra estas propiedades en la red neuronal profunda, en lugar de permitir que el aprendizaje profundo las resuelva simplemente observando los datos.

“La integración de la física fundamental en la IA es esencial para su capacidad de realizar predicciones significativas en el campo. Aquí es realmente donde los científicos pueden hacer una contribución sustancial a la inteligencia artificial, y exactamente en lo que se centra mi grupo”, sostuvo Noé.

Aún quedan muchos desafíos por superar antes de que el método de Hermann y Noé esté listo para su aplicación industrial. “Ésta sigue siendo una investigación fundamental, pero es un nuevo enfoque a un antiguo problema de la ciencia molecular y de los materiales, y estamos entusiasmados con las posibilidades que abre”, coinciden los autores.

Work Group 2018 |
Fotografía del equipo de trabajo en el año 2018.

El Grupo AI4Science (director: Frank Noé) es una unidad de investigación interdisciplinaria activa en el desarrollo de métodos de aprendizaje automático para las ciencias físicas. Cuentan con un perfil sólido en estadística computacional, algoritmos de simulación y aprendizaje y desarrollo de software científico. Como un equipo de matemáticos, químicos, físicos e informáticos que colabora estrechamente, poniendo gran énfasis en cerrar las brechas entre las diversas disciplinas.



Mencionan que sus áreas de investigación son:

Algoritmos de aprendizaje con restricciones físicas.

Análisis de sistemas dinámicos complejos.

Métodos eficientes de aprendizaje generativo para mecánica estadística.

Métodos de aprendizaje automático de alta precisión para la mecánica cuántica.

Inferencia y mejora del método de microscopía de vanguardia.

La Universidad de Alcalá, nos ayuda con la descripción del método Montecarlo.

Es un método no determinista o estadístico numérico, usado para aproximar expresiones matemáticas complejas y costosas de evaluar con exactitud. El método se llamó así en referencia al "Casino de Montecarlo" (Mónaco) por ser esta “la capital del juego de azar”, al ser la ruleta un generador simple de números aleatorios.

El uso de los métodos de Montecarlo como herramienta de investigación, proviene del trabajo realizado en el desarrollo de la bomba atómica durante la Segunda Guerra Mundial en el Laboratorio Nacional de Los Álamos en EE. UU. En este trabajo se conllevaba la simulación de problemas probabilísticos de hidrodinámica concernientes a la difusión de neutrones en el material de fisión. Esta difusión posee un comportamiento eminentemente aleatorio. En la actualidad es parte fundamental de los algoritmos de "raytracing" para la generación de imágenes 3D.

El método de Montecarlo proporciona soluciones aproximadas a una gran variedad de problemas matemáticos posibilitando la realización de experimentos con muestreos de números pseudo-aleatorios en una computadora. El método es aplicable a cualquier tipo de problema, ya sea estocástico o determinista. A diferencia de los métodos numéricos que se basan en evaluaciones en N puntos en un espacio M-dimensional para producir una solución aproximada.

La importancia actual del método Montecarlo se basa en la existencia de problemas que tienen difícil solución por métodos exclusivamente analíticos o numéricos, pero que:
dependen de factores aleatorios o,
se pueden asociar a un modelo probabilística artificial (resolución de integrales de muchas variables, minimización de funciones, etc.).

Gracias al avance en diseño de los ordenadores, cálculos Montecarlo que en otro tiempo hubieran sido inconcebibles, hoy en día se presentan como asequibles para la resolución de ciertos problemas. En estos métodos el error ~ 1/√N, donde N es el número de pruebas y, por tanto, ganar una cifra decimal en la precisión implica aumentar N en 100 veces.

La base es la generación de números aleatorios de los que nos serviremos para calcular probabilidades. En definitiva, conseguir un buen generador de estos números así como un conjunto estadístico adecuado sobre el que trabajar son las primeras dificultades con la nos vamos a encontrar a la hora de utilizar este método.

La tecnología es, sin duda, una de las grandes bases de la vida moderna, sin la cual no se podrían llevar a cabo la infinita mayoría de procesos de la vida diaria. Por este mismo motivo este método encuentra un pilar fundamental en la utilización de determinados "softwares" que permiten sistematizar e informatizar la tarea de valoraciones del riesgo. 

La idea de la que parte la aplicación del método Montecarlo es que hay aspectos, como el plazo o el coste, que no pueden ser determinados con exactitud, ya que se trata de puntos variables. Se trata de una variabilidad con una doble vertiente. Por una parte, las estimaciones que se llevan a cabo son en sí mismas variables, ya que una acción ni dura siempre igual ni cuesta siempre lo mismo; y por otra parte, el riesgo en sí, ya que presentan una probabilidad de ocurrir diferente en distintas situaciones, así como un impacto que varía de unas situaciones a otras.

Lo que permite efectuar este análisis es otorgar de forma conceptual un valor a un proyecto, no de manera determinada, sino estableciendo un “valor medio” y una determinada variabilidad. Permite establecer hasta qué punto las determinadas valoraciones de un proyecto son realistas y arrojan confianza con respecto a los objetivos perseguidos con una determinada acción.

Montecarlo permite a los analistas encargados de llevar a cabo la prevención de riesgos, señalar en qué porcentaje de las simulaciones aleatorias que se han llevado a cabo, aspectos como el plazo y el coste, son menores que los objetivos que se persiguen con el propio proyecto.

De este modo, si este porcentaje es inferior al grado de confianza que una determinada empresa o grupo considera mínimamente aceptable, se estaría ante un caso en el que la planificación no es factible y habría que modificarla.

Pero hablamos de (IA) computacional. De momento es muy atrevido asociarla con pensamiento en el sentido humano. Los sistemas de IA aprenden sin un conocimiento previo (IF…THEN) a través del entrenamiento exhaustivo usando grandes cantidades de datos, pero la intención previa sigue siendo patrimonio de los programadores. Por lo menos por el momento.

Y me divierto con la idea propuesta en otra película, y es que hay muchas películas que muestran como un personaje principal, salido de la ciencia ficción, a una una Inteligencia Artificial que soluciona totalmente la circunstancia a vencer, me refiero a la que aparece en la saga de Los Vengadores (The Avengers), es "J.A.R.V.I.S.", esta inteligencia artificial que hace las veces de mayordomo en la mansión de Tony Stark (Iron Man). En los cómics originales, Jarvis era un humano, pero tanto en el film como en su novelización ha pasado a ser un programa muy inteligente. En la novela se desvelan sus siglas como: "Just A Rather Very Intelligent System" (tan solo un sistema muy inteligente). Debido a que quizás muchos de nosotros soñamos con tener nuestro propio sistema inteligente al que poder dar órdenes. Un poco por hacernos la vida más fácil, pero también porque nos encanta la idea de tener un secretario. «Jarvis, redáctame un informe», y entonces, este sarcástico sistema nos contestaría: «En seguida, no vaya usted a cansarse» al que quizá le quede algo de tiempo para llegar a nuestros terminales móviles. Por el momento nos conformaremos con lo actual: "SIRI" o "GOOGLE NOW" o "CORTANA " o "ALEXA".

Pero en 1981, eran muy pocos los que podrían apostar que pronto tendrían un teléfono celular, que traería la revolución que modificó muchas de las dinámicas sociales, económicas, etc. Esa que hace decir a los miembros más jóvenes de la humanidad: ¿Cómo pudieron vivir sin celular?

Hasta ahora, el conjunto de habilidades que poseen los asistentes telefónicos se alejan bastante de la idea de J.A.R.V.I.S.. Pues este tiene una inteligencia tal que le permite pensar por sí mismo, pero los asistentes de los "smartphones", por ahora, solo pueden realizar tareas repetitivas. Nada de pensar. Y, desde luego, nada de ser conscientes de su existencia. De momento, son calculadoras extraordinariamente potentes de una utilidad innegable.

Ya habrá más como Paulinet.


Comentarios