Inteligencia Artificial y el debate por su uso, ahora que vivimos en una época en que se vislumbran posibilidades más concretas.

En este año 2023, la "Inteligencia Artificial" (IA), es un tema que genera debate. Este es propiciado en buena medida debido a que en bastantes sitios ya es factible ver a las "máquinas inteligentes", operar en diversas actividades, de forma tal que los temores que lo nuevo engendra en la mente de los humanos persiste.

No sucede nada, pero, lo que muchos seres humanos imaginan que puede pasar, mueve al debate, anticipando lo que podría suceder. Y existen múltiples opiniones al respecto, además de que hay personas cuyas opiniones tienen mucho que ver con sus intereses personales.

Así fue que en fecha reciente se publico una carta abierta que solicita se establezca una pausa en cuanto a la implementación de la (IA).

Sustentada aparentemente en lo consignado en la publicación de: Emily M. Bender, Timmit Gebru, Angelina McMillan-Major y Margaret Mitchell, titulada:  “Sobre los peligros de los loros estocásticos: ¿Pueden los modelos del lenguaje ser demasiado grandes?” que fue publicada en marzo de 2021, la que desde un inicio causo conmoción en el mundo de la inteligencia artificial. Como hoy sabemos las dos primeras autoras fueron despedidas de Google, mientras que la comunidad de "Procesamiento del Lenguaje Natural" (PLN) estaba enfrentándose a las verdades incómodas que el artículo había puesto de manifiesto con respecto a los perjuicios causados por los algoritmos que, muchos sostenían, iban a transformar la vida moderna. Las preocupaciones suscitadas por las autoras, acerca de los riesgos éticos, sociales y medioambientales de las tecnologías emergentes, constituían un terreno ya conocido por los investigadores y expertos. El artículo también ayudó a revisar los principios humanistas  defendidos en las aproximaciones a los textos, a la lengua y al significado, y a considerar qué es lo que sucede cuando estos factores intersectan otras herramientas que emergen de una cultura tecnológica obsesionada con perseguir lo más grande y rápido.

Carta emitida por científicos pide se realice una pausa en lo referente a la Inteligencia Artificial (IA), genera debate.


La carta pública firmada por el magnate Elon Musk y centenares de expertos para que se haga una pausa en el desarrollo de la inteligencia artificial (IA) desató un debate en las redes entre los académicos.
Fotografía de la Agencia Afp / Archivo.

Expertos en tecnología solicitaron hacer una pausa en la evolución de la inteligencia artificial, incluido el "Sistema Chat GPT".

La carta pública firmada por el magnate Elon Musk y centenares de expertos para que se haga una pausa en el desarrollo de la (IA) desató desde el jueves 23 de marzo pasado, un debate en las redes entre los académicos, en lo que es una respuesta al reciente lanzamiento "GPT-4" de la empresa incipiente "Open AI", un sucesor más avanzado de su extensamente usado chatbot Chat GPT, que en parte impulsó una carrera entre los gigantes tecnológicos Microsoft y Google para lanzar aplicaciones similares, situación que es importante para valorar el objetivo de las distintas reacciones y de la propuesta de la pausa en si.

La carta advierte que los sistemas de inteligencia artificial con “inteligencia competitiva con humanos pueden plantear fuertes riesgos a la sociedad y la humanidad”, desde inundar la Internet con desinformación y automatizar trabajos, hasta riesgos futuros más catastróficos sacados del ámbito de la ciencia ficción. Es una carrera sin control, señalan que: "En los meses recientes, laboratorios de inteligencia artificial están enfrascados en esta descontrolada carrera para desarrollar y desplegar mentes digitales más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de manera fiable”.

Los avances vertiginosos de la (IA) llevaron a Musk, fundador del gigante de los autos eléctricos Tesla y actual patrón de Twitter, a firmar esa carta, frente a lo que se califica de: "dramática perturbación económica y política, especialmente para la democracia, que causará la IA".

A pesar de que la carta, fue publicada en el sitio "Future of Life. org", del organismo no lucrativo "Instituto Futuro de la Vida", financiada principalmente por la "Musk Foundation"; fue suscrita por pensadores independientes como el historiador Yuval Noah Hariri (nacido en 1976), o el cofundador de Apple, Steve Wozniak (nacido en 1950), y menciona que entre los firmantes confirmados está el galardonado con el "Premio Turing" y pionero de la inteligencia artificial, Yoshua Bengio (nacido en 1964), y otros investigadores líder de la tecnología como Stuart Rusell y Gary Marcus. Entre otros están el ex candidato a la presidencia de Estado Unidos, Andrew Yang, y Rachel Bronson, presidenta de "Bulletin of the Atomic Scientists", un grupo de defensa orientado a la ciencia conocido por sus advertencias contra una guerra nuclear que acabe con la humanidad. Un firmante más sorpresivo es Emad Mostaque, que se desempeña como director general de "Stability AI", fabricante del generador de imágenes de "Stable Diffusion" que se asocia con Amazon y compite con el generador similar de "Open AI" conocido como "Dall-E".

Sin embargo, algunos académicos protestan por lo que consideran una mala interpretación de la discusión. Bajo la interrogante: ¿Las empresas tecnológicas van demasiado rápido en el lanzamiento de poderosas tecnologías de inteligencia artificial que algún día podrían aventajar a los humanos?

La polémica carta de un grupo de expertos, apoyada por Musk.


Polémica intervención de Elon Musk, uno de los firmantes de la misiva,
 quien dirige Tesla, Twitter y SpaceX, y cofundó "Open AI", que fuera de sus primeros inversores,
desde hace mucho tiempo expresa preocupación por los riesgos existenciales de la inteligencia artificial.
Aquí, en una imagen del 10 de febrero de 2022.
Fotografía de la Agencia Afp.

 
Al momento, las compañías: "Open AI", Microsoft y Google no respondieron a la petición, pero la carta ya cuenta con muchos escépticos.

La investigadora especializada en ética de la inteligencia artificial, Timnit Gebru (nacida en 1983), escribió el artículo académico, mismo, que fue citado en la carta avalada por Musk y sus correligionarios, y ahora se muestra descontenta, en su intervención menciona: "Básicamente dicen lo contrario de lo que decimos y citamos en nuestro artículo".

Su opinión resulta de importancia debido a que ella es una científica especializada en algoritmos de minería de datos y sesgo algorítmico, adicionalmente aboga por la defensa de la diversidad en la tecnología y es cofundadora de "Black in AI", una comunidad de investigadores negros que trabajan en inteligencia artificial, culminó su doctorado en la Universidad de Stanford en 2017

Otra autora del artículo, Emily M. Bender (nacida en 1973), califica por su parte la carta abierta de "embrollo", es profesora de lingüística en la Universidad de Washington y se especializa en lingüística computacional y procesamiento del lenguaje natural. También es directora del Laboratorio de Lingüística Computacional de la Universidad de Washington.

Estas expertas, Gebru y Bender, afirman que el peligro de la (IA) es: "La concentración de poder en manos de gente, la reproducción de sistemas de opresión, el daño al ecosistema informativo".

En la carta abierta, afirman Musk y los expertos: "En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable". 

Sam Altman (nacido en 1985), que es el director de "Open AI", que diseñó "Sistema Chat GPT",  reconoció tener "un poco de miedo" de que su algoritmo se utilice para "desinformación a gran escala o ciberataques".

El fundador de la compañía "Stability AI", Emad Mostaque, que es uno de los firmantes de la carta abierta, aseguró por su parte que se retractaba de la demanda de una moratoria de seis meses, y argumentó en su cuenta de Twitter: "No creo que una pausa de seis meses sea la mejor idea".

Gary Marcus (nacido en 1970), que es profesor de sicología en la Universidad de Nueva York, y firmante de la carta, considera en cambio en una contrarréplica que: "Los escépticos tienen que emitir una alarma; no hay ninguna contradicción al respecto".

Aunque los gigantes del sector como: Google, Meta y Microsoft, llevan años investigando en los programas basados en (IA) para acelerar tareas como la traducción o la publicidad selectiva, son los algoritmos de empresas como "Open AI" las que han provocado polémica, pues su robot conversacional "Chat GPT", capaz de mantener conversaciones complejas con seres humanos, acaba de ser actualizado con una nueva versión, "GPT-4", cuya característica es la de haber incrementado su potencia.

Para finalizar cito lo que señalaron los firmantes de la carta abierta: "¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? (…) ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos".

Científicos expertos en la Inteligencia Artificial (IA), desmienten campaña de carta avalada por Elon Musk.

Expertos en inteligencia artificial han expresado su preocupación después de que su trabajo se citara en una carta abierta –cofirmada por Elon Musk– en la que se exigía una pausa urgente en la investigación.


Expertos en inteligencia artificial han expresado su preocupación después de que su trabajo se citara en una carta abierta –cofirmada por Elon Musk– en la que se exigía una pausa urgente en la investigación. Fotografía de la Agencia Afp.

La carta, de fecha del 22 de marzo y con más de un mil ochocientas firmas, pedía una pausa de seis meses en el desarrollo de sistemas “más potentes” que el nuevo "GPT-4" de "Open AI", respaldado por Microsoft, que puede mantener conversaciones similares a las humanas, componer canciones y resumir documentos extensos.

Desde el lanzamiento del "Sistema Chat GPT", el predecesor de "GPT-4", las empresas competidoras se han apresurado a lanzar productos similares.

La carta abierta afirma que los sistemas de (IA) con “inteligencia humana competitiva” plantean profundos riesgos para la humanidad, y cita un total de doce investigaciones de expertos, entre ellos académicos universitarios y empleados y ex empleados de las compañías: "Open AI", Google y su filial "DeepMind".

Grupos de la sociedad civil de Estados Unidos y la Unión Europea, han presionado desde entonces a los parlamentarios para que frenen la investigación de "Open AI", que no respondió inmediatamente a los pedidos de comentarios.

Entre las investigaciones citadas se encuentra la muy famosa: “On the Dangers of Stochastic Parrots...” (Sobre los peligros de los loros estocásticos...), el artículo del que es coautora la doctora Margaret Mitchell, que anteriormente supervisó la investigación ética de la (IA) en Google. Obtuvo su doctorado sobre Ciencias Computacionales por la Universidad de Aberdeen y una maestría en Lenguajes Computacionales de la Universidad de Washington. 

Actualmente la doctora Mitchell, es jefa de Ética Científica en la empresa de "IA Hugging Face", y ha criticado la carta abierta, declaro a la agencia Reuters que no estaba claro qué se consideraba “más potente que el GPT-4”. Y agregó: “Al dar por sentadas muchas ideas cuestionables, la carta afirma un conjunto de prioridades y una narrativa sobre la IA que beneficia a los partidarios de (FLI). Ignorar los daños activos en este momento es un privilegio que algunos de nosotros no tenemos”.

Sus coautoras, Timnit Gebru y Emily M. Bender, como antes se mencionó, criticaron la carta en Twitter, y esta última calificó algunas de sus afirmaciones de “desquiciadas”, y que buscan primordialmente dar prioridad a escenarios apocalípticos imaginarios frente a preocupaciones más inmediatas sobre la (IA), como son los prejuicios racistas o sexistas que se programan en las máquinas.

El presidente de (FLI), Max Tegmark, señaló que la campaña no era un intento de obstaculizar la ventaja corporativa de "Open AI".

Aseguró James Grimmelmann, profesor de ley digital y de la información en la Universidad Cornell: “Una pausa es una buena idea, pero la carta es confusa y no se toma en serio los problemas regulatorios. También es muy hipócrita que Elon Musk firme, dado lo mucho que Tesla ha luchado contra la responsabilidad por la inteligencia artificial defectuosa en sus autos autónomos.”

La Organización de las Naciones Unidas (ONU), apremia a aplicar su recomendación sobre ética aplicable a la Inteligencia Artificial (IA).


La "Recomendación de la Unesco sobre la Ética de la Inteligencia Artificial", es el primer marco mundial para el uso ético de la inteligencia artificial. Orienta a los países sobre cómo maximizar los beneficios de la (IA) y reducir los riesgos que esta conlleva. Contiene valores y principios, pero también recomendaciones políticas detalladas en todos los ámbitos pertinentes. La (Unesco) está especialmente preocupada por las cuestiones éticas que plantean estas innovaciones en los ámbitos de la lucha contra la discriminación y los estereotipos, incluidas las cuestiones de género, la fiabilidad de la información, la privacidad y la protección de datos, los derechos humanos y el medio ambiente. Ilustración tomada de la página Foro Jurídico de la Unesco.

El acelerado desarrollo de la Inteligencia Artificial (IA) tuvo como reacción una serie de llamamientos de parte de más de mil profesionales de la tecnología en todo el mundo. Pidieron que se haga una pausa a la evolución de estos sistemas, incluido el del popular "Sistema Chat GPT". Ante dicho panorama, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) se manifestó para pedir a los países miembros de la organización que apliquen sin demora su recomendación sobre la ética esta tecnología.

Declaró Audrey Azoulay, directora general de la (Unesco): “El mundo necesita normas éticas más estrictas para la inteligencia artificial: es el gran reto de nuestro tiempo. La recomendación de la Unesco determina el marco normativo apropiado. Todos nuestros estados miembros la aprobaron en noviembre de 2021. Es hora de aplicar las estrategias y normativas a nivel nacional. Tenemos que predicar con el ejemplo y asegurarnos de que cumplimos los objetivos de la misma”.

El primer marco normativo mundial de su tipo orienta a los países sobre cómo maximizar los beneficios de la (IA) y reducir los riesgos que conlleva. Para ello, contiene valores y principios, pero también recomendaciones políticas detalladas en todos los ámbitos pertinentes.

Entre las principales preocupaciones del organismo están los aspectos éticos que plantean estas innovaciones tecnológicas en términos de lucha contra la discriminación y estereotipos, incluidas los de género, la fiabilidad de la información, la privacidad y la protección de datos, así como los derechos humanos y el medio ambiente.

La recomendación de la (Unesco) también señala herramientas para garantizar que los desarrollos de la (IA) se atengan al estado de derecho, evitando daños y asegurando que, cuando se produzcan, los afectados dispongan de mecanismos de rendición de cuentas y reparación.

Asimismo, proporciona una herramienta de evaluación que permite a cada estado miembro valorar si está preparado para aplicar la inteligencia artificial en su territorio, permitiendo conocer las competencias y aptitudes que necesitan los profesionales del sector a fin de establecer una regulación sólida.

Hasta ahora, poco más de cuarenta naciones en el mundo han comenzado a colaborar con la (Unesco) en el desarrollo de controles y equilibrios utilizando la recomendación. La medida también exige a los países que den a conocer de manera regular sus progresos y prácticas en el ámbito de la inteligencia artificial en forma de informe periódico cada cuatro años.

En el próximo "Foro Mundial de la Unesco sobre la ética de la inteligencia artificial", que se realizará en Eslovenia en diciembre de este año, se presentará un informe acerca de los progresos realizados.

Estos temas son de reciente creación y posibilitan aplicaciones a la cotidianidad de la especie humana como nunca antes fue posible lograr, de ahí que la lucha por sentar las bases de operación de las mismas avancen en medio de la polémica, pero también, hay que considerar que entran en juego estrategias para optimizar las utilidades de los inversores en el desarrollo de la Inteligencia Artificial. 

Por esto, en el futuro próximo, será factible agregar nuevos contenidos sobre el tema en la Machincuepa Cuántica,  serán de difusión de información que no se conoce actualmente entre nosotros, pero que pronto se incorporará a los términos que se utilizaran en el vocabulario habitual.






Comentarios

Entradas populares