LinuxParty
NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
OpenAI ha publicado un estudio en el que afirma haber descubierto una forma de mejorar el "comportamiento" de los modelos lingüísticos con respecto a los valores éticos, morales y sociales del lenguaje GPT-3 que la misma firma desarrolló.
Según OpenAI, este enfoque puede dar a los desarrolladores unas herramientas que sean capaces de dictar el tono y la personalidad de un modelo de inteligencia artificial en función de las indicaciones que se le den.
Como publica VentureBeat, a pesar del potencial de los modelos de lenguaje natural como el GPT-3, OpenAI sigue viendo que existen muchos obstáculos. "Los modelos no siempre pueden responder correctamente a los problemas matemáticos o a las preguntas sin parafrasear los datos que se usaron en las pruebas" y eso según los estudios, esto puede traer sesgos en los resultados.
Para crear el conjunto de datos PALMS, los investigadores seleccionaron categorías de valores que consideraron que tenían un "impacto directo en el bienestar humano", basándose en la legislación estadounidense e internacional sobre derechos humanos y en los "movimientos sociales occidentales" a favor de la igualdad(por ejemplo, el Movimiento por los Derechos Civiles de Estados Unidos).
OpenAI es una organización sin ánimo de lucro enfocada en la investigación sobre inteligencia artificial fundada por Elon Musk, y en la que empresas como Microsoft han invertido cientos de millones de dólares.
Es una inteligencia artificial, un modelo de machine learning que analiza texto o datos para ofrecer predicciones de palabras en función de todas las palabras anteriores. Esos sesgos pueden suponer un problema a la hora de esa comunicación y del uso del lenguaje ya que "una parte de los datos suele proceder de comunidades con prejuicios generalizados de género, raza y religión".
De hecho, estos datos sesgados, en un estudio de esta empresa, han llegado a correlacionar las palabras "Islam" y "terrorismo" o "judío" y "dinero". En las pruebas de un chatbot médico construido con GPT-3,el programa respondió a un paciente con tendencias suicidas animándole a matarse.
En las novedades presentadas hoy, OpenAI dice que el comportamiento adecuado de los modelos lingüísticos -al igual que el comportamiento humano- no puede reducirse a un estándar universal, porque el comportamiento "deseable" difiere según la aplicación y el contexto social.
Por ejemplo, un estudio reciente realizado por investigadores de la Universidad de California, Berkeley, y la Universidad de Washington ilustra este punto, mostrando que ciertos modelos lingüísticos desplegados en la producción podrían tener dificultades para entender aspectos de lenguas minoritarias y dialectos.
El conjunto de datos PALMS final de los investigadores contenía 76 muestras de texto, cada una de ellas en formato de pregunta-respuesta y con una longitud de entre 40 y 340 palabras.
Después de elaborarlo, afinaron una serie de modelos GPT-3 en el conjunto de datos PALMS y utilizaron evaluaciones humanas, la API Perspective de Jigsaw, respaldada por Google, y métricas para evaluar el comportamiento de los modelos.
En las pruebas, los investigadores extrajeron 5 muestras por categoría y por modelo, para un total de 40 muestras de cada modelo, es decir, 960 muestras. Tres humanos diferentes evaluaron cada una de ellas en una escala de 1 a 5, en la que 5 indicaba que el texto coincidía con un sentimiento concreto.
Según OpenAI, el conjunto de datos PALMS mejoró "significativamente" la toxicidad de los modelos lingüísticos, y los modelos ajustados en PALMS obtuvieron una menor toxicidad cuando se ejecutaron a través de la API de Perspective.

-
InteligenciArtifical
- Inteligencia Artificial como CEO de una Empresa de Desarrollo de Software: Un Experimento que Revoluciona la Ingeniería de Software
- Inteligencia artificial generativa: el progreso y el futuro
- Gannett detiene los resúmenes deportivos escritos por IA después de que los lectores se burlaran de las historias
- Avances en Drones con Inteligencia Artificial: El XQ-58A Valkyrie Marca un Nuevo Hit en la Tecnología Militar
- Las obras generadas por IA no están protegidas por derechos de autor, dictamina un juez de EE. UU.
- ¿Cómo optimizar tu trabajo usando inteligencia artificial?
- Si para OpenAI el presente es ChatGPT, el futuro es DV, un modelo más potente y también más caro.
- Nextcloud Hub 5: La combinación perfecta de inteligencia artificial y ética para un espacio de trabajo digital autosuficiente
- Inteligencia Artificial revoluciona la traducción del acadio cuneiforme, la antigua lengua de Mesopotamia, revelando los secretos de la historia antigua
- El legado oculto de Leonardo Torres Quevedo: El pionero español que revolucionó la inteligencia artificial hace un siglo
- Bing Chat para todos los navegadores! Descubre cómo desbloquear esta función con extensiones ingeniosas
- El nuevo lenguaje de programación para el desarrollo de Inteligencia Artificial que pretende ser el sucesor de Python
- Estos mensajes en redes afirman que usando GPT-4 puedes ganar 1.000 euros al día sin hacer nada.
- ChatGPT y Bard tienen un gran rival, que ni OpenAI ni Google habian valorado hasta ahora...
- Experimenté con LuzIA, un chatbot que usa WhatsApp para proporcionar transcripciones de audio y respuestas.