Desasosiego global por la Inteligencia Artificial

Desasosiego global por la Inteligencia Artificial


Ciudad de México (Proceso).– El despido de Sam Altman de OpenIA, cofundador y CEO de esa empresa y una de las mentes detrás de ChatGPT (la Inteligencia Artificial Generativa que revolucionó el mundo hace un año), su fichaje inmediato por Microsoft (el consorcio que rápidamente invirtió en OpenIA cuando vio el potencial de la IA) y su regreso igualmente sorpresivo a OpenIA por el revuelo que causó, tiene al planeta sin sosiego por el tipo de dirección y la visión que asumirá la industria de la IA en el mundo. 

Este inquietante suceso fortalece la posición de Altman, de OpenAI y de su modelo de IA Generativa en la industria. La noticia de su despido por pérdida de confianza y de capacidad para dirigir la organización y su regreso por la indignación desatada y el apoyo de sus empleados, ha convertido a Altman en una figura no sólo influyente sino indispensable en el campo de la IA.

La empresa OpenAI es conocida por el desarrollo de ChatGPT, un modelo de lenguaje que ha demostrado ser capaz de generar texto coherente en infinidad de situaciones, lo que ha facilitado y hecho más productiva la vida de las personas en sus actividades.

Altman. Salida y regreso. Ap Photo / Eric Risberg, Archivo

Altman tiene una visión optimista de la Inteligencia Artificial, en contraste con las posturas catastrofistas y el temor que ha generado esa tecnología, sobre todo entre los gobiernos. Según él, la IA está en un momento cumbre porque ha demostrado ser útil para muchas cosas distintas.

Altman cree que la IA puede ser particularmente beneficiosa en la educación y que puede transformarla. También ha dicho que ChatGPT y otros modelos de IAG mejoran la productividad en una gran diversidad de trabajos, incluido el desarrollo de software.

Sam Altman ha defendido la necesidad de regulaciones claras y efectivas para la IA y para las grandes empresas tecnológicas, que habitualmente se oponen a cualquier intento de regulación. En una audiencia ante Richard Blumenthal, presidente del Subcomité Judicial del Senado sobre Privacidad, Tecnología y Ley de Estados Unidos, instó a los legisladores a crear regulaciones reflexivas que abracen la promesa de la IA, al tiempo que mitiguen el riesgo de que supere a la humanidad.

Senado de EU. Audiencias. 

Altman ha defendido la creación de una agencia federal de supervisión para emitir y revocar licencias de desarrollo de IA. También opina que los creadores y artistas deben ser compensados cuando su trabajo se utiliza para entrenar un sistema de IA que reemplaza su trabajo creativo.

Sin embargo, Altman también ha advertido sobre los riesgos de la IA. A pesar de su optimismo propio de haber acelerado una nueva industria y negocios con la IAG, ha expresado preocupaciones sobre el potencial de la IA para manipular a los votantes y dirigir la desinformación. Incluso ha advertido que la IA podría llevar al fin de la civilización humana. Ante los legisladores de Estados Unidos testificó: “Mis peores temores son que nosotros, el campo, la tecnología, la industria, causemos un daño significativo al mundo. Creo que si esta tecnología sale mal, puede salir bastante mal.”

Estas posturas han llevado a cuestionar si la visión optimista de Altman sobre la IA ignora sus posibles peligros. Él sigue creyendo que los beneficios de la IA superan con creces los inconvenientes como el desempleo, el sesgo algorítmico discriminatorio y el uso para fines dañinos como las armas automatizadas o la desinformación.

Manipulación de votantes, uno de los riesgos. Foto: AP

Como un intento de respuesta a estos riesgos han surgido iniciativas para regular la IA, pero con enfoques diferenciados por país y región. En Estados Unidos, el Congreso debate una ley que establecería normas para el desarrollo y uso de la IA. Aún sin una legislación, la gobernanza de la IA en la Unión Americana depende de las agencias gubernamentales para aclarar el uso de la IA.

Apenas el 30 de octubre el presidente de Estados Unidos, Joe Biden, emitió una Orden Ejecutiva para liderar la Inteligencia Artificial segura y confiable, con un enfoque en seguridad y protección de la privacidad, pero también promotora de la innovación, la competencia, los derechos y la equidad. Previamente, Biden se reunió en la Casa Blanca y obtuvo compromisos voluntarios de 15 empresas líderes de la IA (incluida OpenIA) para impulsar el desarrollo seguro, confiable y responsable de la IA.

Biden. Orden Ejecutiva. AP Photo / Evan Vucci

La Inteligencia Artificial tiene más de seis décadas de existencia, pero la irrupción de ChatGTP a finales de 2022 despertó entusiasmo en la naciente industria de IA, pero también desató los intentos por regular su desarrollo, uso e implicaciones éticas. A medida que la IA avanza y se integra cada vez más en nuestras actividades, los esfuerzos por regulaciones claras y efectivas se intensifican. En todo caso, el enfoque debe ser la garantía y preservación de los derechos humanos.

La Comisión Europea ha propuesto un reglamento que prohibiría el uso de la IA con fines discriminatorios. Plantea una regulación de la IA que categoriza los riesgos en cuatro niveles: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo.

Fuera del continente europeo, Reino Unido tiene su propio enfoque: sostiene que los reguladores de servicios digitales en ese país están preparados para evitar los riesgos de la IA. En tanto que Canadá se decanta por una ley integral de datos e Inteligencia Artificial.

China también plantea que las disposiciones sobre algoritmos e Internet deben ser interpretadas y aplicadas por un conjunto de autoridades ministeriales y regulatorias superpuestas sobre la base de sus deberes y responsabilidades.

IA generativa. Foto: https://innovacion.uas.edu.mx

La salida y posterior regreso de Sam Altman a OpenAI es crucial porque pone de relieve el liderazgo, la dirección y la visión sobre el complejo desarrollo y la rápida evolución de la IA a nivel global.

La regulación de la IA es un tema de gran preocupación debido a las implicaciones éticas, de seguridad y privacidad de la IA. Los sistemas de IA tienen el potencial de afectar nuestras vidas, desde cómo trabajamos hasta cómo interactuamos. Existe el temor fundado de que la IA se utilice de manera que perjudique a la sociedad.

Pero la regulación de la IA es un desafío mayúsculo debido a la evolución y la naturaleza cambiante de la tecnología. Las regulaciones deben ser lo suficientemente flexibles para adaptarse a los avances tecnológicos, pero también lo suficientemente robustas para proteger los derechos humanos.

La tempestad desatada por Sam Altman, OpenAI, ChatGTP y los intentos globales por regular la IA evidencian la relevancia y la complejidad de esta tecnología en la actualidad. Maximizar sus beneficios y minimizar sus riesgos son, hasta el momento, los dos polos de una misma tecnología. El trasfondo es que la IA nos desafía como seres humanos a hacer todo de forma diferente, cuando somos animales de costumbres. Aunque somos una especie evolutiva y adaptativa, la velocidad que demanda la IA es sencillamente exponencial.

Twitter: @beltmondi

 





Source link