LinuxParty
El gobierno de Estados Unidos debe actuar "rápida y decisivamente" para evitar riesgos sustanciales para la seguridad nacional derivados de la inteligencia artificial (IA) que podría, en el peor de los casos, causar una "amenaza de extinción para la especie humana", dice un informe encargado por el El gobierno de Estados Unidos publicó el lunes. Time: "El actual desarrollo fronterizo de la IA plantea riesgos urgentes y crecientes para la seguridad nacional", dice el informe, que TIME obtuvo antes de su publicación. "El aumento de la IA avanzada y la AGI [inteligencia general artificial] tiene el potencial de desestabilizar la seguridad global de maneras que recuerdan a la introducción de armas nucleares". AGI es una tecnología hipotética que podría realizar la mayoría de las tareas al nivel de un humano o por encima de él. Estos sistemas no existen actualmente, pero los principales laboratorios de IA están trabajando en ellos y muchos esperan que AGI llegue en los próximos cinco años o menos.
Los tres autores del informe trabajaron en él durante más de un año, hablando con más de 200 empleados gubernamentales, expertos y trabajadores de empresas de vanguardia en IA, como OpenAI, Google DeepMind, Anthropic y Meta, como parte de su investigación. Los relatos de algunas de esas conversaciones pintan un panorama inquietante, sugiriendo que muchos trabajadores de seguridad de IA dentro de laboratorios de vanguardia están preocupados por los incentivos perversos que impulsan la toma de decisiones por parte de los ejecutivos que controlan sus empresas. El documento terminado, titulado "Un plan de acción para aumentar la seguridad de la IA avanzada", recomienda un conjunto de acciones políticas radicales y sin precedentes que, de implementarse, alterarían radicalmente la industria de la IA. El informe recomienda que el Congreso debería declarar ilegal entrenar modelos de IA utilizando más de un cierto nivel de potencia informática.
El umbral, recomienda el informe, debería ser fijado por una nueva agencia federal de IA, aunque el informe sugiere, como ejemplo, que la agencia podría fijarlo justo por encima de los niveles de potencia informática utilizados para entrenar modelos de vanguardia actuales como el GPT de OpenAI. -4 y Géminis de Google. La nueva agencia de IA debería exigir a las empresas de IA en la "frontera" de la industria que obtengan permiso del gobierno para entrenar y desplegar nuevos modelos por encima de un cierto umbral inferior, añade el informe. Las autoridades también deberían considerar "urgentemente" prohibir la publicación de los "pesos" o funcionamiento interno de potentes modelos de IA, por ejemplo bajo licencias de código abierto, cuyas violaciones posiblemente se castiguen con penas de cárcel, dice el informe. Y el gobierno debería reforzar aún más los controles sobre la fabricación y exportación de chips de IA y canalizar fondos federales hacia investigaciones de "alineación" que busquen hacer que la IA avanzada sea más segura, recomienda.

-
Programación
- Google dona Windowbuilder, CodePro Para Eclipse
- 12 plugins de Eclipse que todo desarrollador debe conocer!
- Eclipse Ajax Toolkit Framework y Ajax tools
- Visual Studio y Eclipse, comparados y contrastados.
- Crear servicios Web con PHP en Eclipse
- Programar y depurar en un IDE para PHP con Eclipse, plugins PDT, xdebug y Remote debug
- Saros, plugin de Eclipse para programación par a distancia o distribuida en pare
- Desarrollar una aplicación Facebook con Eclipse.
- Instalar Cobol en Eclipse para Linux (y también sirve para Windows)
- Cómo instalar Eclipse en Windows, Linux o Mac.
- ¿Puede TrapC solucionar problemas de seguridad de memoria en C y C++?
- Un EXE de 27 años se convirtió en Python en minutos. ¿Será la ingeniería inversa asistida por IA el próximo paso?
- Google informa que el tiempo de migración de código se reduce a la mitad con ayuda de IA
- ELIZA, el primer chatbot con inteligencia artificial del mundo, resucita después de 60 años
- Tutorial de C/C++, programar paso a paso, para Linux, Windows y Mac