A medida que el vertiginoso desarrollo de la inteligencia artificial (IA) se acelera, gobiernos y empresas buscan establecer medidas para respaldar el desarrollo seguro y responsable de la IA, cada vez más presente e integrada en múltiples productos y servicios accesibles para las personas.
Aprende más: Problemas de la inteligencia artificial generativa que la tecnología blockchain puede ayudar a resolver
Gobiernos y empresas tecnológicas avanzan en la seguridad de la inteligencia artificial
La velocidad en la adopción de la inteligencia artificial cobra una mayor relevancia día a día, especialmente con la presencia de la tecnología en la cotidianidad y con el debate actual y diverso con respecto al potencial, impacto, implicaciones y riesgos en general tras la integración de la IA.
En este sentido, la carrera de la inteligencia artificial está obligando a una respuesta por parte de gobiernos y empresas con respecto a las regulaciones, medidas de seguridad y lineamientos éticos y de seguridad con respecto al desarrollo de la tecnología.
Recientemente, un grupo de autores e investigadores importantes de inteligencia artificial, como Geoffrey Hinton, Andrew Yao y Yoshua Bengio, ganadores del Premio Turing, publicaron un documento donde reseñaron su visión con respecto a la gestión de los riesgos de la IA.
El documento, aborda preocupaciones por los riesgos a gran escala que plantean los futuros y potentes sistemas de IA. Los investigadores piden medidas de gobernanza urgentes y un cambio importante en la investigación y desarrollo (I+D) de inteligencia artificial hacia prácticas éticas y de seguridad, antes de que se desarrollen estos sistemas más poderosos.
Si bien los sistemas avanzados de inteligencia artificial podrían ayudar a la humanidad a curar enfermedades, elevar los niveles de vida y proteger nuestros ecosistemas, también conllevan riesgos a gran escala que no estamos en camino de manejar bien, destacaron los investigadores, quienes pidieron a las principales empresas tecnológicas y a los gobiernos que destinen al menos un tercio de su presupuesto de I+D en IA para garantizar la seguridad y el uso ético, comparable a su financiación para capacidades de IA.
Los autores enfatizan la necesidad por parte de los gobiernos de establecer marcos eficaces de supervisión y gobernanza para evitar la imprudencia y el uso indebido de la IA, así como también la importancia de que los reguladores exijan medidas como el registro de modelos, protección de denunciantes, informes de incidentes y monitoreo del desarrollo de modelos y el uso de supercomputadoras.
En un momento donde las discusiones presentes se centran en el impacto futuro de la inteligencia artificial, iniciativas gubernamentales desde Estados Unidos y Reino Unido, al igual que de tecnológicas como OpenAI, Google, Microsoft y Anthropic, canalizan los más recientes esfuerzos centrados en la seguridad de la IA.
Te puede interesar: Regulación de la inteligencia artificial: el G20 promoverá medidas cooperativas y globales para el desarrollo y uso responsable de la IA
Casa Blanca emite Orden Ejecutiva con estándares para la seguridad de la IA
Una Orden Ejecutiva firmada desde la Casa Blanca, por el presidente de Estados Unidos, Joe Biden, estableció nuevos parámetros y estándares centrados en la inteligencia artificial, incluyendo medidas centradas en:
- Medidas de seguridad
- Protección de privacidad
- Protección de los derechos civiles
- Defensa de los consumidores, pacientes y estudiantes
- Protecciones laborales
- Promoción de la innovación y competencia
- Acuerdos multilaterales con otros países
- Uso responsable a nivel gubernamental de la inteligencia artificial
En líneas generales, entre los estándares se destacan la exigencia a los desarrolladores de los sistemas de IA más poderosos, que compartan los resultados de sus pruebas de seguridad y otra información crítica con el gobierno de Estados Unidos, y encomienda al Instituto Nacional de Estándares y Tecnología que establezca normas estrictas para realizar pruebas exhaustivas de equipos rojos, para garantizar la seguridad antes del lanzamiento público de modelos.
De igual manera, se precisa la creación de estándares para evitar el uso de la IA para el desarrollo de material biológico peligroso, así como la verificación y autenticación de contenido generado por IA.
Te puede interesar: Proyecto de ley en Estados Unidos busca eliminar el uso no autorizado de voces e imágenes para crear réplicas digitales generadas con inteligencia artificial
La orden también promueve el desarrollo de técnicas que preserven la privacidad, establece directrices para que las agencias federales evalúen la eficacia de las técnicas que preserven la privacidad y proporciona una orientación clara a los propietarios, los programas de prestaciones federales y los contratistas federales para evitar que los algoritmos de IA se utilicen para exacerbar la discriminación.
Además, la orden fomenta el uso responsable de la IA en la atención sanitaria y el desarrollo de fármacos asequibles y que salvan vidas, y promueve un ecosistema de IA justo, abierto y competitivo, explica el comunicado de la Casa Blanca, que anteriormente ya logró acuerdos y compromisos de desarrollo seguro y responsable de la IA con diferentes compañías tecnológicas.
Por último, la orden acelera la contratación rápida de profesionales de la IA como parte de un aumento de talentos de la IA en todo el gobierno y ayuda a las agencias a adquirir productos y servicios de IA específicos de forma más rápida, barata y eficaz a través de una contratación más rápida y eficiente.
Te puede interesar: Presidente estadounidense Joe Biden señala la necesidad de regulación internacional para la inteligencia artificial, con el fin de evitar que sea utilizada como “arma de opresión”
Reino Unido creará el primer Instituto de Seguridad de la IA en el mundo
Reino Unido quiere convertirse en una cuna para la seguridad de la inteligencia artificial en el mundo, motivo por el cual ha desplegado diferentes iniciativas, presentó avances en su Grupo de Trabajo IA y servirá como epicentro de la primera Cumbre Internacional de Seguridad de la IA.
El Primer Ministro británico, Rishi Sunak, destacó recientemente la importancia por comprender y abordar los riesgos de la inteligencia artificial, en un discurso donde destacó que “el futuro de la IA es la IA segura”, valorando el impacto transformador actual y futuro de la tecnología.
Sunak, anunció que el Reino Unido creará el primer Instituto de Seguridad de la Inteligencia Artificial en el mundo, como parte de un esfuerzo por entender, desarrollar y probar nuevos modelos de IA, comprender sus capacidades y explorar en detalle sus potenciales riesgos.
Te puede interesar: Inteligencia artificial segura y confiable: Reino Unido crea un grupo de trabajo enfocado en la adopción de IA generativa
El primer ministro británico, recalcó que Reino Unido no tomará medidas apresuradas para regular la inteligencia artificial, debido a que su creencia en la innovación, por lo que fomentarán y no sofocarán los avances de la IA, bajo un enfoque centrado en el entendimiento de la tecnología al congregar experiencias y un equipo de trabajo.
“(…) y en cualquier caso, ¿cómo podemos redactar leyes que tengan sentido para algo que aún no entendemos del todo? Por eso, en lugar de ello, estamos creando capacidades líderes a nivel mundial para comprender y evaluar la seguridad de los modelos de IA dentro del gobierno”, expresó Sunak en su discurso.
De la misma forma, desde Reino Unido presentaron avances con respecto al Grupo de Trabajo centrado en la IA creado por el gobierno británico, el cual suma ahora 150 años de experiencia en investigación de inteligencia artificial al triplicar su equipo de investigadores, estableció dos nuevas alianzas técnicas con organizaciones de seguridad IA y está sentando las bases para la investigación de seguridad de la IA.
El gobierno de Reino Unido publicó un reporte donde congrega las capacidades y riesgos de la inteligencia artificial, en un documento que servirá como punto de partida para la discusión y debates en el programa de la Cumbre Internacional de Seguridad de la IA, que se celebrará en el histórico museo Bletchley Park entre el 1 y 2 de noviembre.
OpenAI, Google, Microsoft y Anthropic crean un fondo para promover la seguridad de la inteligencia artificial
Por su parte, desde el sector privado, empresas tecnológicas y desarrolladores de inteligencia artificial, también están tomando medidas centradas en la seguridad de la IA.
Como parte del Frontier Model Forum, un organismo credo para supervisar el desarrollo seguro y responsable de los modelos de inteligencia artificial más poderosos, gigantes tecnológicos como OpenAI, Google, Microsoft y Anthropic anunciaron la creación de un Fondo de Seguridad de la IA por más de 10 millones de dólares, con la intención de avanzar en la investigación sobre el desarrollo continuo de herramientas para probar y evaluar de manera efectiva los modelos de IA más capaces.
Te puede interesar: Google, OpenAI, Microsoft y Anthropic crean un organismo para vigilar el desarrollo responsable de los modelos de inteligencia artificial más poderosos
De esta forma, el objetivo principal del fondo será apoyar el desarrollo de nuevas evaluaciones de modelos y técnicas para equipos rojos de modelos de IA, explica un anuncio conjunto publicado por OpenAI.
Con este enfoque, buscarán ayudar a desarrollar y probar técnicas de evaluación de capacidades potencialmente peligrosas de los sistemas fronterizos, como se conocen aquellos “modelos fundacionales altamente capaces que podrían poseer capacidades peligrosas suficientes para plantear riesgos graves para la seguridad pública”.
¿Más temas de interés?
LABITCONF, el evento más convocante de Bitcoin y Blockchain
Regístrate en Binance y obten un 15% de descuento en tus comisiones de por vida con nuestro enlace
Compra ahora tu cuenta Tradingview con este enlace y disfruta de beneficios exclusivos
Abre hoy una cuenta GRATIS en BINGX y disfruta del mejor CopyTrading y descuentos en comisiones