LinuxParty
Los investigadores de Microsoft que probaron más de 100 productos de IA de la compañía concluyeron que los sistemas de IA nunca podrán ser completamente seguros , según un nuevo artículo de preimpresión . El estudio de 26 autores, que incluyó al director de tecnología de Azure, Mark Russinovich, descubrió que los modelos de lenguaje grandes amplifican los riesgos de seguridad existentes y crean nuevas vulnerabilidades. Si bien las medidas defensivas pueden aumentar el costo de los ataques, los investigadores advirtieron que los sistemas de IA seguirán siendo vulnerables a amenazas que van desde ataques basados en gradientes hasta técnicas más simples como la manipulación de la interfaz para el phishing.

-
Fallos
- Tragedia en Adamuz: el grave accidente de trenes que sacude a España
- 🕷️ Bots en sitios web: una amenaza invisible que puede costarte dinero
- Una nueva ley rusa penaliza las búsquedas en línea de contenido controvertido
- David Lafoz, símbolo del campo español, se quita la vida a los 27 años: “No aguanto más inspecciones”
- Facebook admite que la represión de Linux-Post fue "un error" y corrige un error de moderación
- Facebook señala temas relacionados con Linux como "amenazas a la ciberseguridad"
- Investigación de Microsoft: los sistemas de IA no pueden ser completamente seguros
- ‘Claudia’ vende sus fotos íntimas, pero ella no existe: son creadas por inteligencia artificial
- Cómo resolver: Alledia framework not found, mensaje de fallo.
- Lenovo condenada a pagar 20.000 euros a un usuario por negarse a devolverle 42 euros de su licencia
- Israelíes extraen datos de un PC que no esta conectado a nada [VIDEO]
- Avast, el antivirus gratuito, trafica con tus datos y sabe si ves porno



