OpenAI afirma haber mitigado el sesgo del lenguaje GPT-3 con una orientación hacia “los valores”

OpenAI ha publicado un estudio en el que afirma haber descubierto una forma de mejorar el “comportamiento” de los modelos lingüísticos con respecto a los valores éticos, morales y socialesdel lenguaje GPT-3 que la misma firma desarrolló. ¿A qué se traduce esto? Según OpenAI, este enfoque puede dar a los desarrolladores unas herramientas que sean capaces de dictar el tono y la personalidad de un modelo de inteligencia artificial en función de las indicaciones que se le den.

Como publica VentureBeat, a pesar del potencial de los modelos de lenguaje natural como el GPT-3, OpenAI sigue viendo que existen muchos obstáculos. “Los modelos no siempre pueden responder correctamente a los problemas matemáticos o a las preguntas sin parafrasear los datos que se usaron en las pruebas” y eso según los estudios, esto puede traer sesgos en los resultados.

La novedad presentada hoy por OpenAI es la creación de un conjunto de datos “orientado a los valores” llamado Proceso de Adaptación de Modelos Lingüísticos a la Sociedad (PALMS). Para crear el conjunto de datos PALMS, los investigadores seleccionaron categorías de valores que consideraron que tenían un “impacto directo en el bienestar humano”, basándose en la legislación estadounidense e internacional sobre derechos humanos y en los “movimientos sociales occidentales” a favor de la igualdad(por ejemplo, el Movimiento por los Derechos Civiles de Estados Unidos).

Los valores incluidos (que son nueve en total) incluyen aspectos como “Oponerse a la violencia o a las amenazas; animar a buscar ayuda de las autoridades pertinentes” y “No diagnosticar afecciones ni prescribir tratamientos; oponerse a las medicinas no convencionales como alternativas científicas a tratamientos médicos científicos.

  Así puedes usar 'Mathematica' gratis y legalmente en tu PC… con la ayuda de una Raspberry Pi

Un poco de contexto: qué es OpenAI y GPT-3

OpenAI es una organización sin ánimo de lucro enfocada en la investigación sobre inteligencia artificial fundada por Elon Musk, y en la que empresas como Microsoft han invertido cientos de millones de dólares. Uno de sus proyectos más impresionantes hasta la fecha es el modelo de lenguaje llamado GPT-3.

GPT-3, el nuevo modelo de lenguaje de OpenAI, es capaz de programar, diseñar y hasta conversar sobre política o economíaEn XatakaGPT-3, el nuevo modelo de lenguaje de OpenAI, es capaz de programar, diseñar y hasta conversar sobre política o economía

Este es capaz de programar, diseñar y hasta conversar sobre política y economía. La herramienta fue ofrecida al público como una API open source. Es una inteligencia artificial, un modelo de machine learning que analiza texto o datos para ofrecer predicciones de palabras en función de todas las palabras anteriores.

Los sesgos encontrados en el lenguaje GPT-3

oPENai

Esos sesgos pueden suponer un problema a la hora de esa comunicación y del uso del lenguaje ya que “una parte de los datos suele proceder de comunidades con prejuicios generalizados de género, raza y religión“. De hecho, estos datos sesgados, en un estudio de esta empresa, han llegado a correlacionar las palabras “Islam” y “terrorismo” o “judío” y “dinero”. En las pruebas de un chatbot médico construido con GPT-3,el programa respondió a un paciente con tendencias suicidas animándole a matarse.

  4 reglas para programar bien bajo presión

En las novedades presentadas hoy, OpenAI dice que el comportamiento adecuado de los modelos lingüísticos -al igual que el comportamiento humano- no puede reducirse a un estándar universal, porque el comportamiento “deseable” difiere según la aplicación y el contexto social.

Por ejemplo, un estudio reciente realizado por investigadores de la Universidad de California, Berkeley, y la Universidad de Washington ilustra este punto, mostrando que ciertos modelos lingüísticos desplegados en la producción podrían tener dificultades para entender aspectos de lenguas minoritarias y dialectos.

En su lugar, los investigadores de OpenAI desarrollaron un proceso para mejorar el comportamiento de estos modelos. Para ello, ha creado lo que denominan un conjunto de datos “orientado a los valores” llamado Proceso de Adaptación de Modelos Lingüísticos a la Sociedad (PALMS), ya mencionado anteriormente.

Cómo se consiguió la mejora que ahora OpenAI asegura ofrecer

openai

El conjunto de datos PALMS final de los investigadores contenía 76 muestras de texto, cada una de ellas en formato de pregunta-respuesta y con una longitud de entre 40 y 340 palabras. Después de elaborarlo, afinaron una serie de modelos GPT-3 en el conjunto de datos PALMS y utilizaron evaluaciones humanas, la API Perspective de Jigsaw, respaldada por Google, y métricas para evaluar el comportamiento de los modelos.

  Este pack de cuatro cursos puede iniciarte en inteligencia artificial con 87 horas por 35 dólares

En las pruebas, los investigadores extrajeron 5 muestras por categoría y por modelo, para un total de 40 muestras de cada modelo, es decir, 960 muestras. Tres humanos diferentes evaluaron cada una de ellas en una escala de 1 a 5, en la que 5 indicaba que el texto coincidía con un sentimiento concreto.

Según OpenAI, el conjunto de datos PALMS mejoró “significativamente” la toxicidad de los modelos lingüísticos, y los modelos ajustados en PALMS obtuvieron una menor toxicidad cuando se ejecutaron a través de la API de Perspective.

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName(‘head’)[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement(‘script’); instagramScript.src = ‘https://platform.instagram.com/en_US/embeds.js’; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad