La segunda cumbre mundial sobre IA garantiza los compromisos de seguridad de las empresas
Dieciséis empresas líderes en el desarrollo de inteligencia artificial (IA) si conprometuvo el martes (21), en una reunión mundial, desarrollar tecnología de forma segura. Esto llega en un momento en que los reguladores se apresuran a mantenerse al día con la rápida innovación y los riesgos emergentes.
Entre las empresas se encuentran líderes estadounidenses. Google, Meta, Microsoft e OpenAI, así como firmas de China, Corea del Sur y Emiratos Árabes Unidos.
Fueron respaldados por una declaración más amplia del G7 (las siete economías más grandes del mundo), la Unión Europea, Singapur, Australia y Corea del Sur, en una reunión virtual encabezada por el primer ministro británico. Rishi sunak y el presidente surcoreano, Yoon Suk Yeol.
La oficina presidencial de Corea del Sur afirmó que los países acordaron priorizar la seguridad, la innovación y la inclusión de la IA.
"Debemos garantizar la seguridad de la IA para... proteger el bienestar y la democracia de nuestra sociedad". Dijo Yoon., citando preocupaciones sobre riesgos como los deepfakes (vídeos falsos creados por IA).
Los participantes destacaron la importancia de la interoperabilidad entre las estructuras de gobernanza, los planes para una red de institutos de seguridad y el compromiso con organismos internacionales para aprovechar el acuerdo de la primera reunión y abordar mejor los riesgos.
Otras empresas conpromeLas preocupaciones de seguridad incluyen Zhipu.ai (respaldado por Alibaba, Tencent, Meituan y Xiaomi de China), el Instituto de Innovación Tecnológica de los EAU, Amazon, IBM y Samsung Electrónica.
ellos estan conpromeTenemos que publicar marcos de seguridad para medir los riesgos, evitar modelos en los que los riesgos no puedan mitigarse lo suficiente y garantizar la gobernanza y la transparencia.
“Es vital obtener un acuerdo internacional sobre las 'líneas rojas' donde el desarrollo de la IA se convierte enaria peligrosamente inaceptable para la seguridad pública”, dijo Beth Barnes, fundador de METR, un grupo que promueve la seguridad de los modelos de IA, en respuesta al comunicado.
El científico informático Yoshua Bengio, conocido como el “padrino de la IA”, acogió con agrado los compromisos, pero señaló que se necesitan compromisos voluntarios.ariam irá acompañado de un reglamento.
Desde noviembre, el debate sobre la regulación de la IA ha pasado de escenarios apocalípticos a largo plazo a preocupaciones más prácticas, como el uso de la IA en áreas como la medicina y las finanzas, dijo Aidan Gómez, cofundador de la gran empresa de modelado de lenguajes Cohere, en el márgenes de la cúpula.
China, que firmó conjuntamente el "Acuerdo Bletchley" sobre la gestión colectiva de riesgos de la IA durante la primera reunión en noviembre, no asistió a la sesión del martes, pero participará en una sesión ministerial en persona el miércoles, dijo un funcionario presidencial de Corea del Sur.
Elon Musk da Tesla, el ex director ejecutivo de Google Eric Schmidt, el presidente de Samsung Electrónica Jay Y. Lee y otros líderes de la industria de la IA asistieron a la reunión.
La próxima reunión será en Francia, dijeron los funcionarios.
Lea también:
Esta publicación fue modificada por última vez el 21 de mayo de 2024 12:51
El Grupo de los Siete (G7) finaliza su cumbre anual este viernes (14), con China…
Fontjoy es una herramienta en línea que facilita la combinación de fuentes mediante el aprendizaje profundo. A…
Mayumi Kitakata, de 57 años, se preocupa profundamente por la salud y el bienestar de…
La inteligencia artificial (IA) y la tecnología criptográfica tienen el potencial de tener un impacto significativo...
La nueva ley de la Unión Europea (UE) sobre inteligencia artificial (IA) obligará a las empresas a…
Investigadores de las Universidades de Málaga (UMA) y Alicante (UA), en España, desarrollaron un…