La rápida evolución de la inteligencia artificial (IA) y su naturaleza transformadora, está convirtiéndose en un tema clave para la humanidad. Mientras el desarrollo de la tecnología continúa avanzando, y con esta la creación de herramientas para las personas, la regulación de la IA se ha convertido en un tópico común que forma parte del debate sobre el impacto de la tecnología.
Una visión sobre la regulación de la inteligencia artificial según Microsoft
El gigante tecnológico Microsoft, liderado por su presidente Brad Smith, publicó su visión con respecto a la forma en que debe regularse la inteligencia artificial, que incluye un plan con cinco recomendaciones principales a la hora de considerar el desarrollo de políticas públicas y leyes para la gobernanza de la IA, una tecnología que cree debe estar controlada por la humanidad en todo momento.
La compañía se ha posicionado como uno de los principales actores tecnológicos en la integración y despliegue de iniciativas de inteligencia artificial, sumándola a sus diferentes productos y servicios, como el navegador Edge, su motor de búsqueda Bing y hasta su sistema operativo Windows, aprovechando su capacidad tecnológica y el potencial de su aliado estratégico, OpenAI y sus sistemas IA, ChatGPT y GPT-4.
Veamos cuáles son los puntos más importantes destacados por Microsoft con respecto a la regulación de la inteligencia artificial en Estados Unidos en su propuesta: «Gobernando la IA: un plan para el futuro».
Aprovechar e implementar nuevos marcos de seguridad de inteligencia artificial liderados por el gobierno
Microsoft considera que existen buenas bases actuales para consolidar marcos de seguridad de cara a la implementación y desarrollo de la inteligencia artificial, por lo que propone utilizar el marco de Gestión de Riesgo IA creado recientemente por el Instituto Nacional de Estándares y Tecnología de Estados Unidos (NIST), como una base fundamental de cara a la construcción de parámetros de seguridad con respecto a la tecnología.
Dicho marco cuenta con una «base sólida que tanto las empresas como los gobiernos puede poner inmediatamente en acción para garantizar el uso más seguro de inteligencia artificial», dijo la compañía.
En cuanto a una implementación de dicho marco realizado por el NIST, el cual se encuentra «alineado estrechamente» con los estándares de Microsoft, será necesario un compromiso para realizar mayores pruebas relacionadas con las prácticas para sistemas de IA avanzados.
Además, sugieren la necesidad de el gobierno estadounidense garantice la implementación del marco de inteligencia artificial a través de una Orden Ejecutiva, especialmente como un punto de partida para lograr convertir los sistemas avanzados en un punto crítico.
Para esto, Microsoft recomienda:
- Requerir la autocertificación por parte de los proveedores del Marco de Gestión de Riesgo IA del NIST
- Establecer una oficina del programa de Gestión de Riesgo IA del NIST para avanzar la coordinación y habilitación entre diferentes agencias gubernamentales
- Desarrollar compra de recursos de forma responsable y limitada según perfiles de desarrollo IA
- Formación y educación avanzadas para evaluar los riesgos y beneficios de los sistemas críticos IA
- Aumentar los requisitos básicos de gobernanza de IA para agencias
Microsoft mostró su compromiso por trabajar con «otros líderes de la industria y aquellos en el gobierno para desarrollar estándares nuevos y adicionales relacionados con modelos fundacionales de alta capacidad».
Exigir frenos de seguridad efectivos para los sistemas de IA que controlan la infraestructura crítica
A medida que la inteligencia artificial se implementa a mayor escala, su adopción en la infraestructura crítica de un país, como la red de energía eléctrica, el sistema de agua, sistemas de emergencia o el tráfico de una ciudad, debe contar con una respuesta de seguridad tanto en escenarios cotidianos como catastróficos.
Microsoft considera que los sistemas de IA avanzados conectados a la infraestructura crítica, deben contar con un «freno de seguridad» en su diseño que permita la intervención y el control humano en caso de ser necesario.
Para esto el gobierno deberá clasificar los sistemas de inteligencia artificial de alto riesgo, evaluando especialmente los sistemas de acuerdo a su capacidad, funcionamiento cada vez más autónomo y aquellos que «cruzan la brecha digital-física».
De esta forma, dicha clasificación debería evaluar estos sistemas tomando en cuenta su capacidad de decisión o acciones a gran escala que realizan, procedimientos físicos, autonomía y el riesgo potencial de causar daño a gran escala a nivel, físico, económico o ambiental.
Además, el gobierno deberá asegurarse de que estos «frenos de seguridad» cuenten con un diseño de diferentes niveles y que funcionen en diferentes sistemas, alentando a la constante revisión de los sistemas de alto riesgos por parte de los operadores, mientras que dichos sistemas IA que controlen la infraestructura crítica sólo podrán ser desarrollados por compañías u operadores que cuenten con una licencia para hacerlo.
Te puede interesar: OpenAI presenta tres claves para gobernar y mitigar los riesgos de la superinteligencia artificial
Desarrollar un amplio marco legal y regulatorio basado en la arquitectura tecnológica para la inteligencia artificial
La compañía tecnológica propone que el desarrollo y cumplimiento de las leyes para la inteligencia artificial, se aplique de acuerdo a la capacidad de los diferentes modelos fundacionales y según el rol de cada empresa con respecto a la tecnología.
En este sentido, la infraestructura tecnológica de la IA podrá ser regulada, tanto por las protecciones legales existentes como por nuevas leyes y reglamentos, en cuanto a las capas de «aplicación», «modelos» e «infraestructura», según explica Microsoft.
Para la capa de aplicación, se deberán aplicar leyes para el uso de la inteligencia artificial en diferentes escalas, mientras que para las capas de modelos e infraestructura, se requerirán nuevas leyes, reglamentos y obligaciones para los operadores, dependiendo de cada tipo de modelo y desarrollo.
Microsoft dijo estar de acuerdo con Sam Altman, CEO de OpenAI, con respecto a la creación de una nueva agencia que se encargue de regular la inteligencia artificial y supervisar el cumplimiento del régimen de licencias propuesto por Altman.
Además, para garantizar la seguridad de los sistemas de inteligencia artificial y protegerlos de las actividades ilícitas, como el lavado de dinero o el financiamiento del terrorismo, Microsoft describió lo que llamó «KY3C», que consta de la implementación de las políticas Know Your Customer o Conozca su Cliente (KYC) de las finanzas tradicionales a los servicios de IA.
KY3C involucra:
- Know Your Cloud o Conozca la Nube, para los desarrolladores de modelos IA potentes que utilizan el almacenamiento la nube para implementar y desarrollar sus modelos.
- Know Your Customer o Conozca su Cliente, aplicado a cualquiera de las partes involucradas con el modelo IA.
- Know Your Content o Conoce Tu Cotenido, el cual consta de un sistema de etiquetado o marca para el contenido realizado o generado por inteligencia artificial, con la intención de proteger al público de falsificaciones, desinformación y engaños.
Te puede interesar: Microsoft sigue integrando inteligencia artificial: la compañía suma la tecnología a sus productos empresariales Power Platform y Dynamics 365
Promover la transparencia y garantizar el acceso académico y sin fines de lucro a la inteligencia artificial
Una de las claves para elevar el debate sobre la seguridad y la transparencia del desarrollo de la inteligencia artificial, pasa por garantizar que la tecnología sea accesible para todos, explica Microsoft, especialmente pensando en la comunidad académica y sin fines de lucro.
La transparencia es considerada como un principio ético fundamental con respecto al desarrollo de la IA, según la visión de la compañía. Con esto en mente, se acentuó la necesidad de garantizar el acceso a los recursos relacionados al desarrollo de la tecnología, así como reducir las barreras de entrada y los costos de acceso para las comunidades sin fines de lucro.
Asociaciones público-privadas para utilizar la IA como una herramienta para abordar los desafíos sociales
Finalmente, el quinto punto del plan de recomendaciones de Microsoft para regular la inteligencia artificial, pasa por buscar «nuevas asociaciones público-privadas para utilizar la IA como una herramienta eficaz para abordar los inevitables desafíos sociales que surgen con la nueva tecnología».
Para explorar el potencial y mitigar los riesgos de la inteligencia artificial, será clave la cooperación entre el sector público y privado, a la par de la sociedad, para construir lineamientos que permitan utilizar la tecnología para proteger la democracia y los derechos fundamentales.
Tenemos una visión clara sobre el futuro y nos damos cuenta de que algunos buscarán usar la IA como un arma en lugar de una herramienta. E incluso cuando las personas de buena voluntad hacen lo mejor que pueden, el cambio tecnológico crea inevitablemente baches imprevistos en el camino por delante
Te puede interesar: Inteligencia artificial segura y confiable: Reino Unido crea un grupo de trabajo enfocado en la adopción de IA generativa
El presidente de Microsoft, considera que la inteligencia artificial puede ser una tecnología capaz de mejorar la condición humana y mejorar la vida de las personas, con un impacto que tenga «quizás incluso más potencial para el bien de la humanidad que cualquier invención que la haya precedido».
Sin embargo, Smith considera que lejos de quedarse sólo con las oportunidades que ofrece la inteligencia artificial, una de las enseñanzas que trajo la irrupción y desarrollo hasta la actualidad de las redes sociales, es ver cómo una tecnología puede pasar de ser una herramienta a un arma, por lo que es fundamental bajo su visión «asegurarnos de que la IA permanezca bajo control humano».
¿Más temas de interés?
Regístrate en Binance y obten un 15% de descuento en tus comisiones de por vida con nuestro enlace
COMPRA EN AMAZON: KEYSTONE Almacenamiento de semillas criptográficas en metal. 29 USD