LinuxParty
"Actualmente estamos asistiendo a una rápida expansión del abuso de estas nuevas herramientas de IA por parte de malos actores", escribe el vicepresidente de Microsoft, Brad Smith , "incluso a través de deepfakes basados en vídeo, audio e imágenes generados por IA
"Para elecciones, fraude financiero, acoso a través de pornografía no consensuada y la próxima generación de acoso cibernético". Microsoft descubrió que se estaban utilizando sus propias herramientas en un episodio publicado recientemente , y el vicepresidente escribe que "Necesitamos actuar con urgencia para combatir todos estos problemas".
La publicación del blog de Microsoft dice que están "comprometidos como empresa con un enfoque sólido e integral", citando seis áreas diferentes de enfoque:
- Una sólida arquitectura de seguridad . Esto incluye "análisis continuos del equipo rojo, clasificadores preventivos, bloqueo de avisos abusivos, pruebas automatizadas y prohibiciones rápidas de usuarios que abusan del sistema... basados en un análisis de datos sólido y amplio".
- Procedencia de medios duraderos y marcas de agua . ("El año pasado, en nuestra conferencia Build 2023, anunciamos capacidades de procedencia de medios que utilizan métodos criptográficos para marcar y firmar contenido generado por IA con metadatos sobre su fuente e historial").
- Proteger nuestros servicios de contenidos y conductas abusivas . ("Nos comprometemos a identificar y eliminar contenido engañoso y abusivo" alojado en servicios que incluyen LinkedIn y la red de juegos de Microsoft).
- Colaboración sólida entre la industria y con los gobiernos y la sociedad civil . Esto incluye "otros en el sector tecnológico" y "esfuerzos proactivos" tanto con grupos de la sociedad civil como "colaboración apropiada con los gobiernos".
- Legislación modernizada para proteger a las personas del abuso de la tecnología . "Esperamos contribuir con ideas y apoyar nuevas iniciativas de gobiernos de todo el mundo".
- Sensibilización y educación pública . "Necesitamos ayudar a las personas a aprender a detectar las diferencias entre contenido legítimo y falso, incluso con marcas de agua. Esto requerirá nuevas herramientas y programas de educación pública, incluso en estrecha colaboración con la sociedad civil y los líderes de toda la sociedad".
-
Inteligencia Artifical
- Columbia Británica prohíbe los coches autónomos de nivel 3 y superiores
- Phoenix de Sanctuary AI: El Principio del Fin del Trabajo Manual con Robots Autónomos
- Los científicos proponen interruptores de muerte del Apocalipsis mediante IA
- Estas son las 3 alternativas a Sora de OpenAI con las que puedes crear vídeos mediante IA.
- Sora de OpenAI: La Revolución de la IA en Creación de Vídeos con Resultados Asombrosos
- La espectacular herramienta de vídeo de OpenAI está envuelta en un misterio
- Presidente de Microsoft: "No puedes creer cada vídeo que ves o cada audio que escuchas"
- La FCC vota para prohibir las llamadas automáticas fraudulentas que utilizan voces generadas por IA
- El metro de Londres está probando herramientas de vigilancia de inteligencia artificial en tiempo real para detectar delitos
- Las Novia-Bots (AI Girlfriend Bots) ya están inundando la tienda GPT de OpenAI
- ¿Deberían los chatbots enseñar a sus hijos?
- Amouranth Revoluciona el Entretenimiento Digital con su IA Personal: ¿Un Remedio Terapéutico o Revolución contra la soledad?
- Ideogram AI: Generación de Texto en Imágenes, una Alternativa Gratuita y Eficiente a Dall-E y Midjourney
- Cómo Mojo espera renovar Python para un mundo de IA
- OpenAI Revoluciona la Experiencia de las Aplicaciones con el Lanzamiento de GPT Store