LinuxParty
Un lector anónimo cita un informe de TechCrunch:El sábado, el CEO de Triplegangers, Oleksandr Tomchuk, fue alertado de que el sitio de comercio electrónico de su empresa estaba caído. Parecía ser algún tipo de ataque distribuido de denegación de servicio. Pronto descubrió que el culpable era un bot de OpenAI que estaba intentando incansablemente rastrear todo su enorme sitio. "Tenemos más de 65.000 productos, cada producto tiene una página", dijo Tomchuk a TechCrunch. "Cada página tiene al menos tres fotos". OpenAI estaba enviando "decenas de miles" de solicitudes de servidor tratando de descargar todo, cientos de miles de fotos, junto con sus descripciones detalladas. "OpenAI usó 600 IP para rastrear datos, y todavía estamos analizando registros de la semana pasada, tal vez sean muchas más", dijo sobre las direcciones IP que el bot usó para intentar consumir su sitio. "Sus rastreadores estaban aplastando nuestro sitio", dijo. "Básicamente fue un ataque DDoS".
El sitio web de Triplegangers es su negocio. La empresa, que cuenta con siete empleados, ha pasado más de una década reuniendo lo que denomina la mayor base de datos de "dobles humanos digitales" de la web, es decir, archivos de imágenes en 3D escaneados a partir de modelos humanos reales. Vende los archivos de objetos en 3D, así como fotografías (de todo, desde manos hasta cabello, piel y cuerpos completos) a artistas 3D, creadores de videojuegos y a cualquiera que necesite recrear digitalmente características humanas auténticas. [...] Para colmo de males, no solo Triplegangers quedó fuera de línea por culpa del bot de OpenAI durante el horario comercial de Estados Unidos, sino que Tomchuk espera una factura de AWS elevada gracias a toda la actividad de CPU y descarga del bot.En un principio, Triplegangers no tenía un archivo robots.txt configurado correctamente, lo que le permitía al robot rastrear libremente su sitio, ya que el sistema interpreta la ausencia de dicho archivo como un permiso. No es un sistema de suscripción voluntaria.
Una vez que se actualizó el archivo con etiquetas específicas para bloquear el bot de OpenAI, junto con defensas adicionales como Cloudflare, el rastreo se detuvo. Sin embargo, robots.txt no es infalible, ya que el cumplimiento por parte de las empresas de inteligencia artificial es voluntario, lo que deja a los propietarios de sitios web la carga de monitorear y bloquear el acceso no autorizado de forma proactiva. "[Tomchuk] quiere que otras pequeñas empresas en línea sepan que la única forma de descubrir si un bot de inteligencia artificial está tomando las pertenencias protegidas por derechos de autor de un sitio web es mirar activamente", informa TechCrunch.

-
Software
- RustDesk la alternativa a TeamViewer y AnyDesk para Windows, Linux y Mac
- Rustdesk [Escritorio remoto]: una alternativa de TeamViewer y AnyDesk para Linux
- Joomla 6, ¿Qué hay para ti?
- Suiza ahora exige que todo el software gubernamental sea de código abierto
- ¿Qué significa la IA de código abierto, de todos modos?
- La importancia de los diseñadores para conseguir un photocall personalizado impactante
- Disponible ONLYOFFICE Docs 8.0: formularios PDF, RTL, Buscar, asistente de gráficos, plugins actualizada y más
- 14 mejores sistemas operativos para Internet de las cosas (IoT)
- Cómo instalar Odoo 15 en CentOS 8 y 9 / AlmaLinux 8 y 9
- ONLYOFFICE lanza la versión 7.4 de su suite ofimática, con nuevas funciones y mejoras en la experiencia del usuario
- Cómo crear un servicio Systemd en Linux
- Los programas no libres son una amenaza para la libertad de todos - Richard Stallman
- Cómo crear formularios rellenables con roles de usuario en ONLYOFFICE Docs
- Alternativas a gratuitas a Adobe Photoshop, InDesign e Illustrator
- Convertir Aplicaciones Web en Apps de Escritorio con WebCatalog