/ miércoles 26 de julio de 2023

Frontier Model Forum: la organización que busca prevenir riesgos potenciales de la IA

Google, Microsoft, Anthropic y OpenAI, anunciaron este miércoles la creación de una nueva organización para combatir los riesgos asociados a esta tecnología

Google, Microsoft, Anthropic y OpenAI, cuatro empresas que lideran la carrera por la inteligencia artificial (IA) de última generación, anunciaron este miércoles la creación de una nueva organización profesional para combatir los riesgos asociados a esta tecnología.

Llamada "Frontier Model Forum" (Foro del Modelo de Frontera), se encargará de promover el "desarrollo responsable" de los modelos más sofisticados de IA y de "minimizar los riesgos potenciales", según un comunicado de prensa.


Te recomendamos: Así cambió el pajarito de Twitter hasta convertirse en una "X"


Los miembros se comprometen a compartir entre ellos, además de con legisladores, investigadores y asociaciones, las mejores prácticas para que estos nuevos sistemas sean menos peligrosos.

El rápido despliegue de la IA generativa, a través de plataformas como ChatGPT (OpenAI), Bing (Microsoft) o Bard (Google), está causando mucha preocupación entre autoridades y la sociedad civil.

La Unión Europea (UE) está finalizando un proyecto de regulación para la IA que debería imponer obligaciones a las empresas del sector, como la transparencia con los usuarios o el control humano sobre las máquinas.



En Estados Unidos, las tensiones políticas en el Congreso impiden cualquier esfuerzo en este sentido.

Por esa razón, la Casa Blanca insta a los grupos interesados a que ellos mismos garanticen la seguridad de sus productos, en nombre de su "deber moral", como dijo la vicepresidenta estadounidense Kamala Harris a principios de mayo.

La semana pasada, la administración de Joe Biden se aseguró los "compromisos" de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI para defender "tres principios" en el desarrollo de IA: seguridad, protección y confianza.

Específicamente, se supone que deben probar sus programas con anticipación, luchar contra los ataques cibernéticos y el fraude, y encontrar la manera de marcar el contenido generado por IA, para que quede autenticado claramente como tal.

Los líderes de estas empresas no niegan los riesgos, al contrario.

En junio, Sam Altman, el director de OpenAI, y Demis Hassabis, el líder de DeepMind (Google), instaron a luchar contra "los riesgos de extinción" de la humanidad "vinculados a la IA".

Durante una audiencia en el Congreso, Sam Altman respaldó la idea cada vez más popular de crear una agencia internacional encargada de la gobernanza de la inteligencia artificial, como las que existen en otros campos.

Entre tanto, OpenAI trabaja para lograr una IA denominada "general", con capacidades cognitivas similares a las de los humanos.

En una publicación del 6 de julio, la empresa con sede en California dice que se enfoca en los "modelos de frontera" de la IA, "modelos fundamentales altamente sofisticados que podrían adquirir capacidades peligrosas suficientes para plantear riesgos graves para la seguridad pública".

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

Advierte que estas capacidades peligrosas podrían "surgir inesperadamente" y que "es difícil evitar realmente que un modelo implementado sea mal utilizado".

Google, Microsoft, Anthropic y OpenAI, cuatro empresas que lideran la carrera por la inteligencia artificial (IA) de última generación, anunciaron este miércoles la creación de una nueva organización profesional para combatir los riesgos asociados a esta tecnología.

Llamada "Frontier Model Forum" (Foro del Modelo de Frontera), se encargará de promover el "desarrollo responsable" de los modelos más sofisticados de IA y de "minimizar los riesgos potenciales", según un comunicado de prensa.


Te recomendamos: Así cambió el pajarito de Twitter hasta convertirse en una "X"


Los miembros se comprometen a compartir entre ellos, además de con legisladores, investigadores y asociaciones, las mejores prácticas para que estos nuevos sistemas sean menos peligrosos.

El rápido despliegue de la IA generativa, a través de plataformas como ChatGPT (OpenAI), Bing (Microsoft) o Bard (Google), está causando mucha preocupación entre autoridades y la sociedad civil.

La Unión Europea (UE) está finalizando un proyecto de regulación para la IA que debería imponer obligaciones a las empresas del sector, como la transparencia con los usuarios o el control humano sobre las máquinas.



En Estados Unidos, las tensiones políticas en el Congreso impiden cualquier esfuerzo en este sentido.

Por esa razón, la Casa Blanca insta a los grupos interesados a que ellos mismos garanticen la seguridad de sus productos, en nombre de su "deber moral", como dijo la vicepresidenta estadounidense Kamala Harris a principios de mayo.

La semana pasada, la administración de Joe Biden se aseguró los "compromisos" de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI para defender "tres principios" en el desarrollo de IA: seguridad, protección y confianza.

Específicamente, se supone que deben probar sus programas con anticipación, luchar contra los ataques cibernéticos y el fraude, y encontrar la manera de marcar el contenido generado por IA, para que quede autenticado claramente como tal.

Los líderes de estas empresas no niegan los riesgos, al contrario.

En junio, Sam Altman, el director de OpenAI, y Demis Hassabis, el líder de DeepMind (Google), instaron a luchar contra "los riesgos de extinción" de la humanidad "vinculados a la IA".

Durante una audiencia en el Congreso, Sam Altman respaldó la idea cada vez más popular de crear una agencia internacional encargada de la gobernanza de la inteligencia artificial, como las que existen en otros campos.

Entre tanto, OpenAI trabaja para lograr una IA denominada "general", con capacidades cognitivas similares a las de los humanos.

En una publicación del 6 de julio, la empresa con sede en California dice que se enfoca en los "modelos de frontera" de la IA, "modelos fundamentales altamente sofisticados que podrían adquirir capacidades peligrosas suficientes para plantear riesgos graves para la seguridad pública".

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

Advierte que estas capacidades peligrosas podrían "surgir inesperadamente" y que "es difícil evitar realmente que un modelo implementado sea mal utilizado".

Metrópoli

Reprueban exámenes para la licencia permanente; “las preguntas fueron confusas”

Daniela es una de las aspirantes que reprobaron el examen teórico de 20 preguntas para conseguir la licencia permanente durante el primer día del trámite en la CdMx

México

Presupuesto 2025: Menos recursos para género, infancia y cuidados

Recortan fondos al Inmujeres y nulo presupuesto para la Secretaría de las Mujeres; expertos advierten retrocesos en igualdad de género

Metrópoli

La Perpetua, historia viva de la Inquisición en el corazón de la CDMX

La prisión, que fue escenario de tortura en nombre de la fe católica, hoy cobra brillo como centro cultural de la UNAM

Mundo

Comienza el G20 con resistencias internas

La agenda incluye un impuesto a los superricos y medidas contra el cambio climático, pero sin promesas de concesiones entre los asistentes

Metrópoli

Exigen solucionar problemas de movilidad en Xoco

Vecinos identifican falta de cruces seguros, señalamientos y tráfico en la zona

República

Marchan por la paz en Querétaro tras masacre en el bar Los Cantaritos

La familia de una de las víctimas del ataque, Jorge Gómez, participó en la marcha y acusaron a las autoridades estatales de no brindarles apoyo