Dieciséis empresas a la vanguardia del desarrollo de la Inteligencia Artificial (IA) se comprometieron el martes en una reunión mundial a desarrollar la tecnología de forma segura en un momento en que los reguladores luchan por mantenerse al día con la rápida innovación y los riesgos emergentes, informó la Agencia de Noticias Reuters.

Entre las empresas se encontraba el líder estadounidense Google (GOOGL.O), Meta (META.O), Microsoft (MSFT.O), y OpenAI, además de firmas de China, Corea del Sur y Emiratos Árabes Unidos.

Fueron respaldados por una declaración más amplia de las principales economías del Grupo de los Siete (G7), la UE, Singapur, Australia y Corea del Sur en una reunión virtual organizada por el primer ministro británico, Rishi Sunak, y el presidente surcoreano, Yoon Suk Yeol.

La oficina presidencial de Corea del Sur dijo que las naciones habían acordado priorizar la seguridad, la innovación y la inclusión de la IA.

«Debemos garantizar la seguridad de la IA para… proteger el bienestar y la democracia de nuestra sociedad», dijo Yoon, señalando preocupaciones sobre riesgos como el deepfake.

Los participantes señalaron la importancia de la interoperabilidad entre los marcos de gobernanza, los planes para una red de institutos de seguridad y el compromiso con organismos internacionales para construir acuerdos en una primera reunión para abordar mejor los riesgos.

Las empresas que también se comprometieron con la seguridad incluyeron a Zhipu.ai, respaldada por Alibaba de China, Tencent, Meituan y Xiaomi, el Instituto de Innovación Tecnológica de los EAU, Amazon (AMZN.O),  IBM (IBM.N), y Samsung Electronics.

Se comprometieron a publicar marcos de seguridad para medir los riesgos, evitar modelos en los que los riesgos no pudieran mitigarse lo suficiente y garantizar la gobernanza y la transparencia.

«Es vital lograr un acuerdo internacional sobre las ‘líneas rojas’ donde el desarrollo de la IA se volvería inaceptablemente peligroso para la seguridad pública», dijo Beth Barnes, fundadora de METR, un grupo que promueve la seguridad de los modelos de IA, en respuesta a la declaración.

El informático Yoshua Bengio, conocido como el «padrino de la IA», acogió con satisfacción los compromisos, pero señaló que los compromisos voluntarios deberían ir acompañados de una regulación.

Desde noviembre, el debate sobre la regulación de la IA ha pasado de escenarios apocalípticos a largo plazo a preocupaciones más prácticas, como cómo utilizar la IA en áreas como la medicina o las finanzas, dijo Aidan Gómez, cofundador de la gran empresa de modelos lingüísticos Cohere, al margen de la cumbre.

China, que firmó conjuntamente el «Acuerdo Bletchley» sobre la gestión colectiva de los riesgos de la IA durante la primera reunión de noviembre, no asistió a la sesión del martes, pero asistirá a una sesión ministerial en persona el miércoles, dijo un funcionario presidencial surcoreano.

En la reunión participaron Elon Musk de Tesla, el ex director ejecutivo de Google Eric Schmidt, el presidente de Samsung Electronics, Jay Y. Lee, y otros líderes de la industria de la IA.

La próxima reunión será en Francia, dijeron los funcionarios.

Fuente: Reuters
Artículo anteriorPasen y vean…
Artículo siguienteGoogle lanzó 10.000 becas educativas para curso sobre IA