Image

Creador de ChatGPT propone tres soluciones para que la inteligencia artificial no se vuelva contra los humanos

Sam Altman, el director ejecutivo y cofundador de OpenAI, ha presentado tres soluciones clave para evitar que la inteligencia artificial (IA) se vuelva contra los seres humanos y cause daños significativos.

De acuerdo con el reporte publicado en el sitio web de 20 Bits, estas soluciones buscan regular el desarrollo y los usos de la IA, protegiendo los derechos y las libertades de los ciudadanos.

A continuación, las tres propuestas de Altman:

  1. Crear una agencia gubernamental encargada de conceder licencias a los grandes modelos de IA y facultarla para revocar dichas licencias si las empresas no cumplen con las normas establecidas por el gobierno. Esta medida se asemeja a la iniciativa de Europa para regular la IA mediante la concesión de licencias.
  2. Establecer normas de seguridad para los modelos de IA, que incluyan evaluaciones de riesgos. Serían necesarias pruebas para determinar si los modelos pueden autoreplicarse y volverse rebeldes. Ejemplos de IA “malvada”, como el caso de ‘ChatGPT malvado’, resaltan la importancia de evaluar y mitigar los posibles riesgos asociados con los modelos de IA.
  3. Requerir auditorías realizadas por expertos independientes para evaluar el rendimiento de los modelos de IA en relación con diversas métricas. Estas auditorías permitirían una supervisión imparcial y garantizarían que los modelos cumplan con los estándares establecidos.

La preocupación por los riesgos de la IA

Altman reconoce la preocupación por los riesgos de la IA, especialmente en lo que respecta a la manipulación de elecciones y la difusión de contenido falso. Sin embargo, también se muestra optimista sobre el impacto positivo a largo plazo de la IA en la generación de nuevos empleos y mejoras en el mercado laboral.

Esta semana, el cofundador de OpenAI estuvo en el Congreso de los Estados Unidos para pedir que se regule el desarrollo y los usos de la inteligencia artificial. Explicó su temor por los riesgos de una tecnología tan potente como esta.

Creemos que los beneficios de las herramientas que hemos desarrollado hasta ahora superan ampliamente los riesgos. Mi mayor miedo es que causemos un daño significativo al mundo. Si esta tecnología va mal, puede ir bastante mal”, sentenció.