LinuxParty
NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
OpenAI ha publicado un estudio en el que afirma haber descubierto una forma de mejorar el "comportamiento" de los modelos lingüísticos con respecto a los valores éticos, morales y sociales del lenguaje GPT-3 que la misma firma desarrolló.
Según OpenAI, este enfoque puede dar a los desarrolladores unas herramientas que sean capaces de dictar el tono y la personalidad de un modelo de inteligencia artificial en función de las indicaciones que se le den.
Como publica VentureBeat, a pesar del potencial de los modelos de lenguaje natural como el GPT-3, OpenAI sigue viendo que existen muchos obstáculos. "Los modelos no siempre pueden responder correctamente a los problemas matemáticos o a las preguntas sin parafrasear los datos que se usaron en las pruebas" y eso según los estudios, esto puede traer sesgos en los resultados.
Leer más: OpenAI comunicó haber mejorado el sesgo en el lenguaje para la Inteligencia Artificial Escribir un comentario
Es lo que sugiere un nuevo estudio que ha explorado cómo los humanos interactuarán con las máquinas en situaciones sociales futuras, como los coches autónomos, pidiendo a los participantes que jugaran una serie de juegos de dilemas sociales.
Los participantes de este estudio se enfrentaron a cuatro formas diferentes de dilema social, cada una de las cuales les presentaba la posibilidad de elegir entre la búsqueda de intereses personales o mutuos, pero con distintos niveles de riesgo y compromiso.
La gente esperaba que los agentes artificiales fueran tan cooperativos como los demás humanos.
Si bien los participantes aceptaron el riesgo tanto con los humanos como con la inteligencia artificial, traicionaron la confianza de la IA con mucha más frecuencia, a la vez que confiaban en que sus socios algorítmicos serían tan cooperativos como los humanos.
Subir fotos personales a internet puede parecer divertido. Pero... ¿Y si esas fotos ayudan a entrenar algún algoritmo de aprendizaje automático?
Una herramienta de reconocimiento facial entrenada con las fotos de millones de personas extraídas de la web. Cualquier persona con habilidades básicas de programación puede desarrollar un software de reconocimiento facial [ 1 ], [ 2 ], [ 3 ] lo que significa que hay más posibilidades que nunca de abusar de esta tecnología para casi todo, desde el acoso sexual, discriminación racial hasta la opresión religiosa y la persecución política.
Varios investigadores de la inteligencia artificial (IA) están dando un paso atrás y desarrollando formas de asegurarse de que las IA no puedan aprender de los datos personales. Hace unos días se presentaron dos de las últimas ideas relacionadas con esto en ICLR, la conferencia líder en inteligencia artificial.
Images Generated By AI Machines es una cuenta de Twitter creada hace dos semanas que ya ha tuiteado o retuiteado cientos de imágenes generadas mediante inteligencia artificial. Pero no estamos ante el típico generador de rostros, cuyo fin es el de producir imágenes realistas e indistinguibles de la realidad, no. Por el contrario, esta cuenta ofrece imágenes que se ajusten a una breve descripción proporcionada por el usuario. Recurriendo a lo 'aprendido' durante su entrenamiento con miles de imágenes reales, el algoritmo elabora desde cero una imagen que, a su 'entender', se ajusta a la descripción.
Subir fotos personales a internet puede parecer divertido. Pero... ¿Y si esas fotos ayudan a entrenar algún algoritmo de aprendizaje automático?
Una herramienta de reconocimiento facial entrenada con las fotos de millones de personas extraídas de la web. Cualquier persona con habilidades básicas de programación puede desarrollar un software de reconocimiento facial [ 1 ], [ 2 ], [ 3 ] lo que significa que hay más posibilidades que nunca de abusar de esta tecnología para casi todo, desde el acoso sexual, discriminación racial hasta la opresión religiosa y la persecución política.
Varios investigadores de la inteligencia artificial (IA) están dando un paso atrás y desarrollando formas de asegurarse de que las IA no puedan aprender de los datos personales. Hace unos días se presentaron dos de las últimas ideas relacionadas con esto en ICLR, la conferencia líder en inteligencia artificial.
A mi me gustan más los arcos... Pero no me disgustan las armas de fuego y me gusta la caza, hay que reconocer el hecho de que detrás de ellas hay mucha tecnología y a veces nos puede sorprender, para bien y para mal, lo que se puede hacer con ella. Bajo el nombre de TrackingPoint, esta compañía afincada en Austin ha creado lo que se conoce con el nombre «Precision Guided Firearms» o lo que es lo mismo: rifles de caza que nos ayudan con la tarea de apuntar para que hagamos disparos precisos.
Esta inteligencia artificial es capaz de convencer a los propios seres humanos a que cambien de opinión, siempre con argumentos.
La inteligencia artificial ha venido para quedarse, en principio para hacernos la vida mucho más sencilla, y en los últimos años incluso ha podido competir con los seres humanos en distintas cuestiones como el ajedrez, entre otras.
Lo llaman Project Debater, y lo definen como un sistema de debate autónomo que puede participar en debates competitivos con humanos.
La Fuerza Aérea de Estados Unidos "espera enfrentar un avión no tripulado autónomo equipado con un sistema de control de vuelo impulsado por inteligencia artificial contra un avión de combate con un piloto humano en poco más de un año", informa The Drive:
El a concepto general de un vehículo aéreo de combate no tripulado (UCAV) totalmente autónomo capaz de combate aire-aire, así como ataques aire-tierra, tiene un gran potencial para cambiar fundamentalmente el carácter de la guerra aérea. En su forma más básica, un UCAV podría realizar muchas de las mismas funciones que las aeronaves tripuladas, pero podría tomar decisiones clave de manera más rápida y precisa, teniendo en cuenta mucha más información en un período de tiempo más corto, sin ninguna preocupación por estar distraído o confundido por el caos general del combate.
En 2018, instituciones, universidades y empresas de Finlandia impulsaron la creación de un proyecto llamado Elementent of AI, básicamente un curso sobre inteligencia artificial para gente sin formación previa en este campo, con certificación y gratuito para todos los ciudadanos de ese país.
Educar al 1% de la población europea en los fundamentos de la IA
Desde ya el curso está disponible en inglés, sueco, alemán, estonio, y por supuesto, finlandés. Sin embargo, pronto estará traducido a todos los idiomas hablados en la Unión Europea. Por ello puedes ingresar tu email para que te avisen inmediatamente cuando esté disponible en español, por ejemplo.
PC Magazine entrevistó recientemente a Janelle Shane, la científica de investigación óptica y experimentadora de IA que escribió el nuevo libro "Pareces una cosa y te amo: cómo funciona la inteligencia artificial y por qué está haciendo del mundo un lugar más extraño". "You Look Like a Thing and I Love You: How Artificial Intelligence Works and Why It's Making the World a Weirder Place."
En un momento, Shane explica por qué cualquier IA de "recuadro negro" puede ser un problema:
Creo que la ética en la IA debe incluir algún reconocimiento de que las IA generalmente no nos dicen cuándo han llegado a sus respuestas a través de métodos problemáticos. Por lo general, todo lo que vemos es la decisión final, y algunas personas han tenido la tentación de tomar la decisión "como imparcial" únicamente porque estaba involucrada una máquina. Creo que el uso ético de la IA tendrá que implicar el examen de las decisiones de IA. Si no podemos mirar dentro del recuadro negro, al menos podemos realizar estadísticas sobre las decisiones de la IA y buscar problemas sistemáticos o fallas extrañas... Hay algunos investigadores que ya ejecutan estadísticas sobre algunos algoritmos de alto perfil, pero las personas que programan estos algoritmos tienen la responsabilidad de hacer la debida diligencia en su propio trabajo. Esto es además de ser más ético acerca de si un algoritmo particular debe ser construido en absoluto...
-
InteligenciArtifical
- Ideogram AI: Generación de Texto en Imágenes, una Alternativa Gratuita y Eficiente a Dall-E y Midjourney
- Cómo Mojo espera renovar Python para un mundo de IA
- OpenAI Revoluciona la Experiencia de las Aplicaciones con el Lanzamiento de GPT Store
- ChatGPT: Te ayuda en Fontenería y es Tu Nuevo Aliado en las Tareas Domésticas
- La Revolución de la IA Subliminal: Mensajes Ocultos en Imágenes que Sorprenden en las Redes Sociales
- Inteligencia Artificial como CEO de una Empresa de Desarrollo de Software: Un Experimento que Revoluciona la Ingeniería de Software
- Inteligencia artificial generativa: el progreso y el futuro
- Gannett detiene los resúmenes deportivos escritos por IA después de que los lectores se burlaran de las historias
- Avances en Drones con Inteligencia Artificial: El XQ-58A Valkyrie Marca un Nuevo Hit en la Tecnología Militar
- Las obras generadas por IA no están protegidas por derechos de autor, dictamina un juez de EE. UU.
- ¿Cómo optimizar tu trabajo usando inteligencia artificial?
- Si para OpenAI el presente es ChatGPT, el futuro es DV, un modelo más potente y también más caro.
- Nextcloud Hub 5: La combinación perfecta de inteligencia artificial y ética para un espacio de trabajo digital autosuficiente
- Inteligencia Artificial revoluciona la traducción del acadio cuneiforme, la antigua lengua de Mesopotamia, revelando los secretos de la historia antigua
- El legado oculto de Leonardo Torres Quevedo: El pionero español que revolucionó la inteligencia artificial hace un siglo