LinuxParty

NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Una nueva investigación revela que los grandes modelos de lenguaje (LLM) como ChatGPT no pueden aprender de forma independiente ni adquirir nuevas habilidades sin instrucciones explícitas , lo que los hace predecibles y controlables. El estudio disipa los temores de que estos modelos desarrollen habilidades de razonamiento complejas y enfatiza que, si bien los LLM pueden generar un lenguaje sofisticado, es poco probable que representen amenazas existenciales. Sin embargo, el posible uso indebido de la IA, como la generación de noticias falsas, aún requiere atención.

El estudio, publicado como parte de las actas de la 62ª Reunión Anual de la Asociación de Lingüística Computacional (ACL 2024), la principal conferencia internacional sobre procesamiento del lenguaje natural, revela que los LLM tienen una capacidad superficial para seguir instrucciones y sobresalir en Sin embargo, si dominan el idioma, no tienen potencial para dominar nuevas habilidades sin una instrucción explícita. Esto significa que siguen siendo inherentemente controlables, predecibles y seguros.

Ratio: 1 / 5

Inicio activadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Un clon de ChatGPT gratuito y de código abierto, llamado LibreChat, permite a sus usuarios elegir qué modelo de IA usar, "para aprovechar las capacidades de los modelos de lenguaje de vanguardia de múltiples proveedores en una interfaz unificada". Esto significa que LibreChat incluye los modelos de OpenAI, pero también otros, tanto de código abierto como de código cerrado, y su sitio web promete una "integración perfecta" con los servicios de IA de OpenAI, Azure, Anthropic y Google, así como GPT-4, Gemini Vision., y muchos otros. ("Cada IA ​​en un solo lugar", explica la página de inicio de LibreChat). Los complementos incluso le permiten realizar solicitudes a DALL-E o Stable Diffusion para generaciones de imágenes. (LibreChat también ofrece una base de datos que rastrea el "estado de la conversación", lo que permite cambiar a un modelo de IA diferente en mitad de la conversación...)

Publicado bajo la licencia MIT, LibreChat se ha convertido en "una historia de éxito de código abierto", según este artículo, que representa "la comunidad apasionada que está creando activamente un ecosistema de herramientas de inteligencia artificial de código abierto". Y su creador, Danny Avila, dice que en algunos casos finalmente permite a los usuarios poseer sus propios datos, "lo cual es un derecho humano en extinción, un lujo en la era de Internet y más aún en la era de los LLM".

Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

La "prueba de Turing", propuesta por primera vez como "el juego de imitación" por el científico informático Alan Turing en 1950, juzga si la capacidad de una máquina para mostrar inteligencia es indistinguible de la de un ser humano. Para que una máquina pase la prueba de Turing, debe poder hablar con alguien y engañarlo haciéndole creer que es un humano. Los científicos decidieron replicar esta prueba pidiendo a 500 personas que hablaran con cuatro encuestados, incluido un humano y el programa de inteligencia artificial ELIZA de la década de 1960, así como GPT-3.5 y GPT-4, la inteligencia artificial que impulsa ChatGPT. Las conversaciones duraron cinco minutos, después de los cuales los participantes tenían que decir si creían que estaban hablando con un humano o con una IA. En el estudio, publicado el 9 de mayo en el servidor preimpreso arXiv, los científicos descubrieron que los participantes juzgaron que GPT-4 era humano el 54% de las veces.

Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

SoftBank ha desarrollado una tecnología de conversión de voz mediante IA destinada a reducir el estrés psicológico de los operadores de centros de llamadas alterando las voces de los clientes enojados para que suenen más tranquilas . El periódico japonés The Asahi Shimbun informa:La compañía lanzó un estudio sobre la "cancelación de emociones" hace tres años, que utiliza tecnología de procesamiento de voz mediante IA para cambiar la voz de una persona a través de una llamada telefónica. A Toshiyuki Nakatani, un empleado de SoftBank, se le ocurrió la idea después de ver un programa de televisión sobre el acoso a los clientes. "Si la voz que grita de los clientes sonara como la del papá globo ocular de Kitaro, daría menos miedo", dijo, refiriéndose a un personaje de la popular serie de anime "Gegege no Kitaro".

Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Un lector anónimo cita un informe del New York Times:La noticia apareció en MSN.com: "Destacada emisora ​​irlandesa se enfrenta a juicio por presunta conducta sexual inapropiada". En la parte superior de la historia había una fotografía de Dave Fanning. Pero Fanning, un DJ y presentador de programas de entrevistas irlandés famoso por su descubrimiento de la banda de rock U2, no era el locutor en cuestión. "No creerías la cantidad de personas que se pusieron en contacto", dijo Fanning, quien calificó el error de "escandaloso". La falsedad, visible durante horas en la página de inicio predeterminada para cualquier persona en Irlanda que usara Microsoft Edge como navegador, fue el resultado de un error de inteligencia artificial. Un medio de periodismo pasajero llamado BNN Breaking había utilizado un chatbot de IA para parafrasear un artículo de otro sitio de noticias, según un empleado de BNN. BNN añadió al Sr. Fanning a la mezcla al incluir una foto de un "destacado locutor irlandés". La historia luego fue promocionada por MSN, un portal web propiedad de Microsoft. La historia fue eliminada de Internet un día después, pero el daño a la reputación de Fanning no se deshizo tan fácilmente, dijo en una demanda por difamación presentada en Irlanda contra Microsoft y BNN Breaking . La suya es sólo una de las muchas quejas contra BNN, un sitio con sede en Hong Kong que publicó numerosas falsedades durante su breve tiempo en línea como resultado de lo que parecían ser errores generativos de IA.

Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Los días 7 y 8 de mayo en Washington, DC, se organizó en el salón de convenciones más grande de la ciudad la presentación al complejo militar-industrial de Estados Unidos, sus principales empresas de tecnología y a sus justificadores más abiertos de los crímenes de guerra. Por supuesto, no es así como lo describirían. Fue la "Exposición de IA para la Competitividad Nacional" inaugural, organizada por el Proyecto Especial de Estudios Competitivos, más conocido como el grupo de expertos "tecnoeconómico" creado por el ex director ejecutivo de Google y actual multimillonario Eric Schmidt. El patrocinador principal de la conferencia fue Palantir, una empresa de software cofundada por Peter Thiel que es mejor conocida por inspirar las protestas de 2019 contra su trabajo con el Servicio de Inmigración y Control de Aduanas (Ice) en el apogeo de la política de separación familiar de Trump. Actualmente, Palantir suministra algunos de sus productos de inteligencia artificial a las Fuerzas de Defensa de Israel.

La sala de conferencias también estaba llena de stands que representaban al ejército estadounidense y a docenas de sus contratistas, desde Booz Allen Hamilton hasta una empresa aleatoria que me describieron como Uber para software de aviones. En conferencias de la industria como estas, las personas poderosas tienden a no tener filtros: asumen que están en un espacio seguro, entre amigos y pares. Tenía curiosidad: ¿qué dirían sobre la violencia impulsada por la IA en Gaza o cuál creen que es el futuro de la guerra?

Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

OpenAI ha firmado un acuerdo para acceder a contenido en tiempo real desde la API de datos de Reddit , lo que significa que puede generar discusiones desde el sitio dentro de ChatGPT y otros productos nuevos. Es un acuerdo similar al que Reddit firmó con Google a principios de este año y que supuestamente valía 60 millones de dólares . El acuerdo también "permitirá a Reddit traer nuevas funciones impulsadas por IA a Redditors y mods" y utilizar los grandes modelos de lenguaje de OpenAI para crear aplicaciones. OpenAI también se ha registrado para convertirse en socio publicitario en Reddit.

No se revelaron términos financieros en la publicación del blog. que anunciaba el acuerdo, y ninguna de las compañías mencionó datos de capacitación. Ese último detalle es diferente del acuerdo con Google, donde Reddit declaró explícitamente que le daría a Google "formas más eficientes de entrenar modelos". Sin embargo, hay una divulgación que menciona que el director ejecutivo de OpenAI, Sam Altman, también es accionista de Reddit, pero que "esta asociación fue dirigida por el director de operaciones de OpenAI y aprobada por su junta directiva independiente".

Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Un lector anónimo compartió este informe de Associated Press :El gigante tecnológico Cisco Systems se unió el miércoles a Microsoft e IBM para firmar un compromiso patrocinado por el Vaticano para garantizar que la inteligencia artificial se desarrolle y utilice de manera ética y en beneficio del bien común... El compromiso describe los pilares clave del uso ético y responsable de la IA. Enfatiza que los sistemas de IA deben diseñarse, utilizarse y regularse para servir y proteger la dignidad de todos los seres humanos, sin discriminación, y sus entornos. Destaca los principios de transparencia, inclusión, responsabilidad, imparcialidad y seguridad como necesarios para guiar todos los desarrollos de la IA.

El documento fue presentado y firmado en una conferencia del Vaticano el 28 de febrero de 2020... El Papa Francisco ha pedido un tratado internacional para garantizar que la IA se desarrolle y utilice de forma ética , y dedicó su mensaje anual de paz de este año al tema.

Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

El nuevo remitente Baloo Uriza escribe:En una rara muestra de cordura en el espacio automotriz, Columbia Británica ha prohibido los autos autónomos en sus carreteras después de años de observar cómo los autos autónomos obstaculizaban los esfuerzos de respuesta de emergencia en California y mataban directamente a un peatón en Arizona. Esperemos que esta tendencia regulatoria continúe y se traslade al espacio humano retirando licencias a conductores con un historial conocido de mala conducción.En el artículo compartido, The Drive señala que la prohibición solo se aplica a los vehículos autónomos que superan la calificación de autonomía de Nivel 2 de la Sociedad de Ingenieros Automotrices (SAE). [Puede encontrar un desglose completo de cada uno de los niveles aquí ].

Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Aquí presentamos a Phoenix, uno de los pioneros en robots totalmente autónomos capaces de aprender imitando a los humanos. Este androide, desarrollado por la empresa canadiense Sanctuary AI, ha alcanzado una destreza y velocidad equiparables a las humanas, marcando un avance significativo hacia la automatización en entornos que actualmente dependen de habilidades manuales humanas. A través de un enfoque de aprendizaje remoto, Phoenix puede adaptarse a diversas tareas sin necesidad de programación, convirtiéndose en un sustituto potencial en cadenas de montaje y entornos laborales variados.



Redes:



   

 

Suscribete / Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Donar a LinuxParty

Probablemente te niegues, pero.. ¿Podrías ayudarnos con una donación?


Tutorial de Linux

Filtro por Categorías