LinuxParty
Los investigadores de Microsoft que probaron más de 100 productos de IA de la compañía concluyeron que los sistemas de IA nunca podrán ser completamente seguros , según un nuevo artículo de preimpresión . El estudio de 26 autores, que incluyó al director de tecnología de Azure, Mark Russinovich, descubrió que los modelos de lenguaje grandes amplifican los riesgos de seguridad existentes y crean nuevas vulnerabilidades. Si bien las medidas defensivas pueden aumentar el costo de los ataques, los investigadores advirtieron que los sistemas de IA seguirán siendo vulnerables a amenazas que van desde ataques basados en gradientes hasta técnicas más simples como la manipulación de la interfaz para el phishing.

-
Fallos
- Gartner: ''Las hojas de cálculo causan pérdidas millonarias a las empresas''
- Comprueba si tu DNS está afectado por la Falla que puso en Jaque Internet.
- Los fallos del software y la responsabilidad de quien lo creó
- La máquina del ''juicio final'' sigue activa y esperando un ataque
- Antivirus gratuitos: introducción
- Virus ataca la red de distribución eléctrica australiana, y Linux termina como h
- De 20 puntos a tres: La clase obrera le da la espalda a Zapatero
- Mala actualización de BitDefender Clobbers para PCs Windows
- Wikileaks publica un artículo sobre el asesinato de periodistas.
- Mitos de Chernóbyl
- Primer ser humano “infectado por un virus informático”
- 10 Consejos para la resolución de problemas técnicos inexplicables