La regulación para la inteligencia artificial (IA) parece cuestión tiempo, y grandes voces dentro de la industria, como las de Sam Altman, CEO de OpenAI, el creador del chatbot IA, ChatGPT, están pidiendo a los legisladores trabajar de la mano para regular la tecnología, como sucedió en una reciente audiencia del Congreso estadounidense relacionada con la IA.
Te puede interesar: Inteligencia artificial segura y confiable: Reino Unido crea un grupo de trabajo enfocado en la adopción de IA generativa
Camino hacia la regulación de la inteligencia artificial: todo lo que debes saber sobre la audiencia del Senado estadounidense
El progresivo auge de la inteligencia artificial está acelerando la visión de un cambio absoluto en el mundo a raíz de una tecnología que, en gran medida, puede vincularse a un extendido listado de casos de uso para transformar el trabajo, el comercio, la educación, la salud, la comunicación, Internet y más.
Sin embargo, este rápido crecimiento no está exento de debates y cuestionamientos morales, éticos, sociales y tecnológicos sobre cómo la inteligencia artificial puede impactar cada una de estas áreas, con los potenciales riesgos y peligros en el centro de la discusión.
Los gobiernos y autoridades del mundo están movilizándose para abordar la forma en que la IA puede regularse, particularmente ante los avances de la tecnología en los productos de grandes compañías, como Google y Microsoft, y el acceso a estas herramientas de cara al público.
Te puede interesar:
- Google acelera movimientos en inteligencia artificial: más funciones para su chatbot Bard, herramientas con IA generativa para sus productos, llega PaLM 2 y más
- Microsoft sigue integrando inteligencia artificial: la compañía suma la tecnología a sus productos empresariales Power Platform y Dynamics 365
Con esto en mente, el Senado de Estados Unidos realizó una audiencia histórica que, por primera vez, se estableció para visualizar el alcance y las formas de supervisión para la inteligencia artificial en el país.
Veamos cuáles fueron los principales temas y discusiones con respecto a la IA durante una audiencia que contó con el CEO de OpenAI, Sam Altman, la vicepresidenta y directora de privacidad y confianza de IBM, Christina Montgomery y el científico y profesor, Gary Marcus, como testigos.
Regulaciones para la IA, grandes riesgos, implicaciones en el trabajo, el futuro de la tecnología y más
La audiencia organizada por la «Subcomisión de privacidad, tecnología y derecho», bajo el título «Oversight of AI: Rules for Artificial Intelligence», en español «Supervisión de la IA: Reglas para la Inteligencia Artificial», abordó una gran variedad de temas, que engloban en general la discusión y las reflexiones alrededor del desarrollo, impacto y alcance de la tecnología, hoy y en el futuro.
La regulación de la inteligencia artificial es necesaria
Los tres testigos parecían tener claras dos cosas: el carácter transformador de la inteligencia artificial y que esta tecnología debe regularse.
Luego de señala que la IA tiene el «potencial para mejorar casi todos los aspectos de nuestras vidas», el líder de OpenAI, fue claro al explicar la necesidad de regular la IA, a través de iniciativas colaborativas entre las empresas, gobiernos y legisladores.
(…) pensamos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más potentes (…)
El gobierno estadounidense podría «considerar una combinación de requisitos de licencia y prueba para el desarrollo y lanzamiento de modelos de IA por encima de un umbral de capacidades», explicó Altman, quien más adelante ofreció un sistema de regulación de tres pasos que, a su juicio, podría servir para aplicar al campo de la IA:
- Creación de una nueva agencia encargada del cumplimiento de las normales del sector. Esta agencia, señala Altman, podría autorizar «cualquier esfuerzo por encima de una cierta escala de capacidades y pueda quitar esa licencia y garantizar el cumplimiento de las normas de seguridad».
- Conjunto de estándares de seguridad. Estos se enfocarían en evaluar cualquier tipo de capacidad peligrosa de la inteligencia artificial, así como en «las pruebas específicas que debe pasar un modelo antes de que pueda implementarse en el mundo» de forma segura.
- Auditorías independientes. Estas serían requeridas como medida de evaluación de expertos, ajenas a las realizadas por las empresas y gobiernos, para los modelos IA.
De igual forma, Altman considera que no es suficiente una regulación local para la IA, sino que hacen falta estándares internacionales que, bajo el liderazgo de Estados Unidos, puedan adoptar otros países, aunque esto pueda «considerarse poco práctico».
En línea con la visión de Altman, la ejecutiva de IBM, Christina Montgomery, también consideró la importancia de la regulación, pero desde un enfoque «de precisión», en el que en lugar de regular la tecnología en sí, se apliquen normativas según casos de uso específicos, con una regulación más estricta para aquellos casos de uso potencialmente riesgosos para las personas y al sociedad.
Montgomery, explicó además que es necesaria una guía clara que defina cada uno de los casos de uso para la inteligencia artificial, el cual señale e identifique claramente cuáles son los niveles de riesgo y las normativas para cada caso de uso. La transparencia con respecto a las interacciones y el impacto de los modelos IA, también deben formar parte de esta perspectiva regulatoria.
Altman y sus miedos con la inteligencia artificial: «puede salir muy mal»
Al hablar sobre los riesgos de la IA, el CEO de OpenAI reflexionó sobre sus «peores temores» con respecto al impacto de la tecnología, al terminar por causar «nosotros, el campo, la tecnología, la industria» un «daño significativo al mundo», y agregó:
Creo que si esta tecnología sale mal, puede salir bastante mal. Y queremos expresarnos al respecto. Queremos trabajar con el gobierno para evitar que eso suceda, pero tratamos de ser muy claros sobre cuál es el caso negativo y el trabajo que tenemos que hacer para mitigarlo
Te puede interesar: Japón adopta ChatGPT: la ciudad Yokosuka integró la inteligencia artificial para sus tareas administrativas
Lineamientos y una «Constitución IA» establecida por la sociedad
Los principios y valores de estos sistemas deben establecerse por la sociedad en su conjunto, de acuerdo a la visión de Altman:
Una cosa que creo que es muy importante es que, a qué se alinean estos sistemas, cuáles valores, cuáles son esos límites, lo establece de alguna manera la sociedad en su conjunto, los gobiernos en su conjunto. Entonces, al crear ese conjunto de datos, la alineación de nuestro conjunto de datos de alineación, podría ser, ya sabes, una constitución de IA, lo que sea, que tiene que provenir ampliamente de la sociedad
Riesgos de la inteligencia artificial: desinformación, manipulación y falta de transparencia
Gary Marcus, profesor de la Universidad de Nueva York, es una voz activa y crítica desde hace años con respecto a los riesgos de la inteligencia artificial, la cual considera una tecnología transformadora.
«La IA se encuentra entre las tecnologías que más han cambiado el mundo y ya está cambiando las cosas más rápidamente que casi cualquier tecnología en la historia», dijo Marcus.
Sin embargo, Marcus es bastante vocal en cuanto a los riesgos de la IA, señalando su capacidad para desinformar, engañar y manipular a la sociedad de diferentes formas, condicionándola incluso de las formas más sutiles.
Marcus destacó que «estos nuevos sistemas van a ser desestabilizadores», ya que «pueden y crearán mentiras persuasivas a una escala nunca antes vista por la humanidad», afectando así desde elecciones hasta sistemas políticos y mercados.
Un ejemplo con respecto a esto, según explica el científico y escritor, son los chatbots basados en IA, un punto en el que expresó:
Los chatbots también darán forma clandestinamente a nuestras opiniones, lo que podría exceder lo que pueden hacer las redes sociales. Las elecciones sobre los conjuntos de datos que utilizan las empresas de IA tendrán una enorme influencia invisible. Quienes elijan los datos crearán las reglas que darán forma a la sociedad de maneras sutiles pero poderosas. Hay otros riesgos, demasiados derivados de la inherente falta de fiabilidad de los sistemas actuales.
La confianza y la transparencia, son dos puntos clave para lograr mitigar los riesgos de la inteligencia artificial, mencionó Montgomery, que recalcó que «la IA debe regularse en el punto de riesgo», el cual considera «el punto en el que la tecnología se encuentra con la sociedad».
Con respecto a la transparencia, el profesor Marcus mostró su preocupación ante la falta de transparencia de los sistemas actuales, los cuales «no protegen adecuadamente nuestra privacidad y continúan perpetuando el sesgo» ya que «sus creadores no entienden completamente cómo funcionan».
Debido a esto «la humanidad ha pasado a un segundo plano», y añadió:
La IA se mueve increíblemente rápido con mucho potencial, pero también con muchos riesgos. Obviamente, necesitamos que el gobierno se involucre y necesitamos que las empresas tecnológicas participen, tanto grandes como pequeñas. Pero también necesitamos científicos independientes, no solo para que los científicos podamos tener una voz, sino para que podamos participar directamente en abordar los problemas en la evaluación de soluciones
Sobre la manipulación y la desinformación potencialmente generada por la inteligencia artificial generativa, Altman las consideró como «una de mis áreas de mayor preocupación», debido a «la capacidad más general de estos modelos para manipular, persuadir para proporcionar una especie de desinformación interactiva uno a uno».
Estas preocupaciones se incrementan de cara a la elecciones del próximo año y debido a que los modelos están mejorando progresivamente, por lo que deberá ser un foco de cara a la regulación.
La manipulación de las personas con la inteligencia artificial
Para Marcus, existen diferentes formas en que la manipulación puede llevarse a cabo, y en la actualidad «todavía no entendemos realmente las consecuencias». Marcus, utilizó una metáfora que describe a los sistemas de inteligencia artificial como «personas falsificadas» para explicarlo:
(…) estos sistemas son casi como personas falsificadas, y honestamente no entendemos cuál es la consecuencia de eso. Todavía no son perfectamente humanos, pero son lo suficientemente buenos como para engañar a muchas personas la mayor parte del tiempo. Y eso introduce muchos problemas, por ejemplo, el delito cibernético y cómo las personas pueden tratar de manipular los mercados, etc. Así que es una preocupación seria (…)
Te puede interesar: Inteligencia artificial segura y confiable: Reino Unido crea un grupo de trabajo enfocado en la adopción de IA generativa
Concentración de poder en la IA
El senador Cory Booker, preguntó a los testigos por uno de los temas que «mayores preocupaciones» le genera con respecto a la inteligencia artificial, y es la concentración de poder de la tecnología en manos de un grupo pequeño de empresas, mencionando los vínculos de OpenAI con Microsoft y Anthropic con Google, como algo que «es realmente aterrador ver cómo pocas empresas ahora controlan y afectan la vida de tantos de nosotros».
En su respuesta, el CEO de OpenAI considera que habrán muchas personas que desarrollen muchos modelos, y reconoció el esfuerzo realizado por parte de la comunidad de código abierto para el desarrollo de proyectos de inteligencia artificial.
Aunque, Altman aseguró que un «número relativamente pequeño de proveedores que puedan hacer modelos de verdad», visualizando «beneficios y peligros en eso».
Por su parte, Marcus fue un más tajante al respecto:
(…) existe un riesgo real de una especie de tecnocracia combinada con la oligarquía, donde un pequeño número de empresas influye en las creencias de las personas a través de la naturaleza de estos sistemas (…)
Como resultados, estos sistemas «pueden dar forma sutil a nuestras creencias y como una enorme influencia en la forma en que vivimos nuestras vidas», por lo que le asusta «tener un pequeño número de jugadores haciendo eso con datos que ni siquiera conocemos».
Una consulta por parte de los senadores se enfocó en la petición firmada por diferentes figuras y líderes tecnológicos para pausar el desarrollo de modelos IA, la cual firmó Marcus y aclaró que esta «no pedía una prohibición a todas las investigaciones de inteligencia artificial», sino «a una cosa muy específica, que serían sistemas como GPT-5».
OpenAI es el desarrollador del lenguaje GPT-4, el modelo que con su lanzamiento impulsó dicha petición que, al igual que Marcus, firmaron otras figuras relacionadas con la tecnología como el magnate Elon Musk, quien ha señalado también la necesidad de una alternativa a los avances de inteligencia artificial de Google y el dúo Microsoft y OpenAI, por lo que creará su propio modelo para competir en el sector.
Te puede interesar: Elon Musk, la inteligencia artificial y TruthGPT: el magnate cree que la tecnología puede destruir la civilización y creará su propio modelo IA para competir con ChatGPT
Con respecto a este tema, Altman señaló que una pausa tal y como está planteada no sería beneficioso:
Ir a construir un sistema de IA súper poderoso en secreto y luego dejarlo caer en el mundo de una vez, creo que no iría bien
Montgomery, por su parte, se mostró alineada con la visión de Altman, catalogando como «poco práctica» una pausa para el desarrollo de la IA. Ella explicó:
Creo que debemos usar el tiempo para priorizar la ética y la tecnología responsable en lugar de plantear el desarrollo. No estoy seguro de cuán práctico es hacer una pausa, pero absolutamente deberíamos priorizar los protocolos de seguridad
Áreas de mayor riesgo que necesitan atención y reglas estrictas
Las regulaciones para la inteligencia artificial pueden encontrar un punto más sensible y estricto según el riesgo, impacto y alcance de su aplicación.
Al analizar estas áreas clave que necesitarán regulaciones más estrictas, Montgomery señaló la desinformación como algo principal a considerar, señalando que:
El espacio en torno a la desinformación, creo que es muy importante. Y volviendo a los puntos de transparencia, saber qué contenido generó la IA será un área realmente crítica que debemos abordar
El profesor Marcus, por su parte, se enfocó en el área médica para abordar la desinformación, y expresó:
Creo que la desinformación médica es algo de lo que realmente hay que preocuparse. Tenemos sistemas que alucinan cosas. Van a alucinar consejos médicos. Algunos de los consejos que darán son buenos, otros son malos. Necesitamos una regulación muy estricta en torno a eso. Lo mismo con el consejo psiquiátrico. Gente que usa estas cosas como una especie de terapeutas azos. Creo que tenemos que estar muy preocupados por eso. Creo que debemos preocuparnos por el acceso a Internet para estas herramientas
Impacto de la inteligencia artificial en los trabajos
Un punto siempre controversial a la hora de debatir los posibles efectos de la inteligencia artificial en el mundo, es la forma en que podrá afectar el campo laboral dentro de diferentes industrias y profesiones, y los trabajos que desplazará con su llegada.
Te puede interesar: Implicaciones de la inteligencia artificial en el mercado laboral: ¿cuáles serán los trabajos más impactados por los modelos GPT de IA?
La perspectiva de Altman es que como en «todas las revoluciones tecnológicas» espera que «haya un impacto significativo en los puestos de trabajo, pero es muy difícil predecir exactamente cómo será ese impacto».
Además, el CEO de OpenAI recalcó que GPT-4 se trata de una herramienta que está sirviendo para la productividad de muchos trabajos y están enfocados en realizar tareas, aunque también añadió que el modelo de inteligencia artificial «automatizará por completo algunos trabajos y creará otros nuevos que creemos que serán mucho mejores».
Altman visualiza «que habrá un impacto en los puestos de trabajo», algo en lo que «tratamos de ser muy claros al respecto, y creo que requerirá una asociación entre la industria y el gobierno», mientras que concluyó:
Creo que los trabajos y el empleo y lo que todos vamos a hacer con nuestro tiempo realmente importan. Estoy de acuerdo en que cuando lleguemos a sistemas muy poderosos, el panorama cambiará. Creo que soy más optimista de que somos increíblemente creativos y encontramos cosas nuevas que hacer con mejores herramientas, y eso seguirá sucediendo.
Montgomery, por su parte reforzó la visión de IBM al mencionar la creencia de que la inteligencia artificial «cambiará todos los trabajos» y apostó por una postura formativa para la fuerza laboral de cara al futuro.
La ejecutiva de IBM dijo:
Se crearán nuevos puestos de trabajo. Se transformarán muchos más trabajos y algunos trabajos desaparecerán. Entonces, creo que lo más importante que podríamos estar haciendo y podemos y deberíamos estar haciendo ahora es preparar a la fuerza laboral de hoy y la fuerza laboral del mañana para asociarse con tecnologías de IA y usarlas
Marcus considera que la clave tras este impacto de la IA en los trabajos, dependerá en gran medida del tiempo que tardará en escalar. Esto podría acelerarse ante la aparición de la inteligencia artificial general (AGI), algo que podría terminar por crear «efectos profundos en el trabajo», lo que consideró un proceso difícil de evitar dentro de los próximos 20-50 años.
El profesor de la Universidad de Nueva York, reflexionó:
Siempre ha sido el caso en el pasado que hemos tenido más trabajos, que vienen nuevos trabajos, nuevas profesiones. ¿Van a ser 10 años? ¿Van a ser cien años? Y no creo que nadie sepa la respuesta a esa pregunta. Creo que, a la larga, la inteligencia artificial general realmente reemplazará una gran fracción de los trabajos humanos. No estamos tan cerca de la inteligencia artificial general, a pesar de todo el bombo de los medios y demás. Diría que lo que tenemos ahora es solo una pequeña muestra de la IA que construiremos en 20 años
Imagen cortesía: Creador de Imágenes de Bing -elaboracion propia-
¿Más temas de interés?
Lightning Labs lanza Taproot Assets, permitiendo emitir tokens en la red de Bitcoin
Tether fortalecerá sus reservas por medio de compras de Bitcoin con sus beneficios netos
Comunidad de Polkadot organizará workshops formativos y meetups en Ciudad de México
El IOSCO propondrá una serie de reglas coordinadas a nivel mundial para los criptoactivos
Regístrate en Binance y obten un 15% de descuento en tus comisiones de por vida con nuestro enlace
COMPRA EN AMAZON: KEYSTONE Almacenamiento de semillas criptográficas en metal. 29 USD