LinuxParty

NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.

Ratio: 1 / 5

Inicio activadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Un clon de ChatGPT gratuito y de código abierto, llamado LibreChat, permite a sus usuarios elegir qué modelo de IA usar, "para aprovechar las capacidades de los modelos de lenguaje de vanguardia de múltiples proveedores en una interfaz unificada". Esto significa que LibreChat incluye los modelos de OpenAI, pero también otros, tanto de código abierto como de código cerrado, y su sitio web promete una "integración perfecta" con los servicios de IA de OpenAI, Azure, Anthropic y Google, así como GPT-4, Gemini Vision., y muchos otros. ("Cada IA ​​en un solo lugar", explica la página de inicio de LibreChat). Los complementos incluso le permiten realizar solicitudes a DALL-E o Stable Diffusion para generaciones de imágenes. (LibreChat también ofrece una base de datos que rastrea el "estado de la conversación", lo que permite cambiar a un modelo de IA diferente en mitad de la conversación...)

Publicado bajo la licencia MIT, LibreChat se ha convertido en "una historia de éxito de código abierto", según este artículo, que representa "la comunidad apasionada que está creando activamente un ecosistema de herramientas de inteligencia artificial de código abierto". Y su creador, Danny Avila, dice que en algunos casos finalmente permite a los usuarios poseer sus propios datos, "lo cual es un derecho humano en extinción, un lujo en la era de Internet y más aún en la era de los LLM".

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

La "prueba de Turing", propuesta por primera vez como "el juego de imitación" por el científico informático Alan Turing en 1950, juzga si la capacidad de una máquina para mostrar inteligencia es indistinguible de la de un ser humano. Para que una máquina pase la prueba de Turing, debe poder hablar con alguien y engañarlo haciéndole creer que es un humano. Los científicos decidieron replicar esta prueba pidiendo a 500 personas que hablaran con cuatro encuestados, incluido un humano y el programa de inteligencia artificial ELIZA de la década de 1960, así como GPT-3.5 y GPT-4, la inteligencia artificial que impulsa ChatGPT. Las conversaciones duraron cinco minutos, después de los cuales los participantes tenían que decir si creían que estaban hablando con un humano o con una IA. En el estudio, publicado el 9 de mayo en el servidor preimpreso arXiv, los científicos descubrieron que los participantes juzgaron que GPT-4 era humano el 54% de las veces.

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

SoftBank ha desarrollado una tecnología de conversión de voz mediante IA destinada a reducir el estrés psicológico de los operadores de centros de llamadas alterando las voces de los clientes enojados para que suenen más tranquilas . El periódico japonés The Asahi Shimbun informa:La compañía lanzó un estudio sobre la "cancelación de emociones" hace tres años, que utiliza tecnología de procesamiento de voz mediante IA para cambiar la voz de una persona a través de una llamada telefónica. A Toshiyuki Nakatani, un empleado de SoftBank, se le ocurrió la idea después de ver un programa de televisión sobre el acoso a los clientes. "Si la voz que grita de los clientes sonara como la del papá globo ocular de Kitaro, daría menos miedo", dijo, refiriéndose a un personaje de la popular serie de anime "Gegege no Kitaro".

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Un lector anónimo cita un informe del New York Times:La noticia apareció en MSN.com: "Destacada emisora ​​irlandesa se enfrenta a juicio por presunta conducta sexual inapropiada". En la parte superior de la historia había una fotografía de Dave Fanning. Pero Fanning, un DJ y presentador de programas de entrevistas irlandés famoso por su descubrimiento de la banda de rock U2, no era el locutor en cuestión. "No creerías la cantidad de personas que se pusieron en contacto", dijo Fanning, quien calificó el error de "escandaloso". La falsedad, visible durante horas en la página de inicio predeterminada para cualquier persona en Irlanda que usara Microsoft Edge como navegador, fue el resultado de un error de inteligencia artificial. Un medio de periodismo pasajero llamado BNN Breaking había utilizado un chatbot de IA para parafrasear un artículo de otro sitio de noticias, según un empleado de BNN. BNN añadió al Sr. Fanning a la mezcla al incluir una foto de un "destacado locutor irlandés". La historia luego fue promocionada por MSN, un portal web propiedad de Microsoft. La historia fue eliminada de Internet un día después, pero el daño a la reputación de Fanning no se deshizo tan fácilmente, dijo en una demanda por difamación presentada en Irlanda contra Microsoft y BNN Breaking . La suya es sólo una de las muchas quejas contra BNN, un sitio con sede en Hong Kong que publicó numerosas falsedades durante su breve tiempo en línea como resultado de lo que parecían ser errores generativos de IA.

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Los días 7 y 8 de mayo en Washington, DC, se organizó en el salón de convenciones más grande de la ciudad la presentación al complejo militar-industrial de Estados Unidos, sus principales empresas de tecnología y a sus justificadores más abiertos de los crímenes de guerra. Por supuesto, no es así como lo describirían. Fue la "Exposición de IA para la Competitividad Nacional" inaugural, organizada por el Proyecto Especial de Estudios Competitivos, más conocido como el grupo de expertos "tecnoeconómico" creado por el ex director ejecutivo de Google y actual multimillonario Eric Schmidt. El patrocinador principal de la conferencia fue Palantir, una empresa de software cofundada por Peter Thiel que es mejor conocida por inspirar las protestas de 2019 contra su trabajo con el Servicio de Inmigración y Control de Aduanas (Ice) en el apogeo de la política de separación familiar de Trump. Actualmente, Palantir suministra algunos de sus productos de inteligencia artificial a las Fuerzas de Defensa de Israel.

La sala de conferencias también estaba llena de stands que representaban al ejército estadounidense y a docenas de sus contratistas, desde Booz Allen Hamilton hasta una empresa aleatoria que me describieron como Uber para software de aviones. En conferencias de la industria como estas, las personas poderosas tienden a no tener filtros: asumen que están en un espacio seguro, entre amigos y pares. Tenía curiosidad: ¿qué dirían sobre la violencia impulsada por la IA en Gaza o cuál creen que es el futuro de la guerra?

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

OpenAI ha firmado un acuerdo para acceder a contenido en tiempo real desde la API de datos de Reddit , lo que significa que puede generar discusiones desde el sitio dentro de ChatGPT y otros productos nuevos. Es un acuerdo similar al que Reddit firmó con Google a principios de este año y que supuestamente valía 60 millones de dólares . El acuerdo también "permitirá a Reddit traer nuevas funciones impulsadas por IA a Redditors y mods" y utilizar los grandes modelos de lenguaje de OpenAI para crear aplicaciones. OpenAI también se ha registrado para convertirse en socio publicitario en Reddit.

No se revelaron términos financieros en la publicación del blog. que anunciaba el acuerdo, y ninguna de las compañías mencionó datos de capacitación. Ese último detalle es diferente del acuerdo con Google, donde Reddit declaró explícitamente que le daría a Google "formas más eficientes de entrenar modelos". Sin embargo, hay una divulgación que menciona que el director ejecutivo de OpenAI, Sam Altman, también es accionista de Reddit, pero que "esta asociación fue dirigida por el director de operaciones de OpenAI y aprobada por su junta directiva independiente".

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Un lector anónimo compartió este informe de Associated Press :El gigante tecnológico Cisco Systems se unió el miércoles a Microsoft e IBM para firmar un compromiso patrocinado por el Vaticano para garantizar que la inteligencia artificial se desarrolle y utilice de manera ética y en beneficio del bien común... El compromiso describe los pilares clave del uso ético y responsable de la IA. Enfatiza que los sistemas de IA deben diseñarse, utilizarse y regularse para servir y proteger la dignidad de todos los seres humanos, sin discriminación, y sus entornos. Destaca los principios de transparencia, inclusión, responsabilidad, imparcialidad y seguridad como necesarios para guiar todos los desarrollos de la IA.

El documento fue presentado y firmado en una conferencia del Vaticano el 28 de febrero de 2020... El Papa Francisco ha pedido un tratado internacional para garantizar que la IA se desarrolle y utilice de forma ética , y dedicó su mensaje anual de paz de este año al tema.

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

El nuevo remitente Baloo Uriza escribe:En una rara muestra de cordura en el espacio automotriz, Columbia Británica ha prohibido los autos autónomos en sus carreteras después de años de observar cómo los autos autónomos obstaculizaban los esfuerzos de respuesta de emergencia en California y mataban directamente a un peatón en Arizona. Esperemos que esta tendencia regulatoria continúe y se traslade al espacio humano retirando licencias a conductores con un historial conocido de mala conducción.En el artículo compartido, The Drive señala que la prohibición solo se aplica a los vehículos autónomos que superan la calificación de autonomía de Nivel 2 de la Sociedad de Ingenieros Automotrices (SAE). [Puede encontrar un desglose completo de cada uno de los niveles aquí ].

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Aquí presentamos a Phoenix, uno de los pioneros en robots totalmente autónomos capaces de aprender imitando a los humanos. Este androide, desarrollado por la empresa canadiense Sanctuary AI, ha alcanzado una destreza y velocidad equiparables a las humanas, marcando un avance significativo hacia la automatización en entornos que actualmente dependen de habilidades manuales humanas. A través de un enfoque de aprendizaje remoto, Phoenix puede adaptarse a diversas tareas sin necesidad de programación, convirtiéndose en un sustituto potencial en cadenas de montaje y entornos laborales variados.

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Un artículo (PDF) de investigadores de la Universidad de Cambridge, respaldado por voces de numerosas instituciones académicas, incluida OpenAI, propone interruptores de apagado remoto y bloqueos como métodos para mitigar los riesgos asociados con las tecnologías avanzadas de IA. También recomienda realizar un seguimiento de las ventas de chips de IA a nivel mundial. El Registro informa:

El documento destaca numerosas formas en que los formuladores de políticas podrían abordar la regulación del hardware de IA. Muchas de las sugerencias, incluidas aquellas diseñadas para mejorar la visibilidad y limitar la venta de aceleradores de IA, ya se están aplicando a nivel nacional. El año pasado, el presidente de Estados Unidos, Joe Biden, presentó una orden ejecutiva destinada a identificar empresas que desarrollen grandes modelos de IA de doble uso, así como proveedores de infraestructura capaces de entrenarlos. Si no está familiarizado, "doble uso" se refiere a tecnologías que pueden cumplir una doble función en aplicaciones civiles y militares. Más recientemente, el Departamento de Comercio de EE.UU. propuso una regulación que requeriría que los proveedores estadounidenses de nube implementaran políticas más estrictas de "conozca a su cliente" para evitar que personas o países de interés eludan las restricciones a las exportaciones. Este tipo de visibilidad es valiosa, señalan los investigadores, ya que podría ayudar a evitar otra carrera armamentista, como la provocada por la controversia sobre la brecha de misiles, donde informes erróneos llevaron a una acumulación masiva de misiles balísticos. Si bien son valiosos, advierten que el cumplimiento de estos requisitos de presentación de informes corre el riesgo de invadir la privacidad del cliente e incluso provocar la filtración de datos confidenciales.

Pin It


Redes:



   

 

Suscribete / Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Donar a LinuxParty

Probablemente te niegues, pero.. ¿Podrías ayudarnos con una donación?


Tutorial de Linux

Filtro por Categorías