Una nuova tecnologia inventata sarebbe in grado di mostrare le opere tramite delle immagini particolari e che le presenterebbero per quello che sono realmente. Ma come ci riesce?
Aggirare il sistema di ricerca immagini, è possibile cercare foto “particolari”?
Elle Simpson-Edin è una scienziata che ha promosso il libro di sua moglie tramite un sito web. Per farlo ha utilizzato una IA in grado di creare immagini accattivanti e addirittura foto-realistiche a partire da una richiesta testuale. La maggior parte di questi strumenti, però, includono dei blocchi che limitano la tipologia di illustrazioni che gli utenti possono creare, e vietano la pornografia, la violenza e le foto che mostrano i volti di persone reali.
Ma grazie alle sue ricerche è riuscita a trovare una comunità di Discord chiamata Unstable Diffusion, la quale è da sempre dedicata alle persone che utilizzano delle versioni prive di restrizioni di un nuovo strumento open source per le immagini AI, chiamato Stable Diffusion. Nel server gli utenti condividono illustrazioni e simulazioni di fotografie che potrebbero essere considerate pornografiche o in stile horror, oltre a molte immagini di nudi che la scarsa conoscenza del corpo umano da parte del software rende grottesche.
Il creatore di Stable Diffusion
A tal proposito la ricercatrice è riuscita a utilizzare lo strumento per creare alcune immagini erotiche e violente per il suo libro. Nonostante se le illustrazioni di Simpson-Edin siano relativamente innocue e fanno un uso tutto sommato limitato della nudità, altri generatori di foto non sarebbero stati in grado di realizzarle a pieno. Ma questo non pare essere condiviso da tutti, specialmente se lo strumento in questione fornisce un libero accesso a tutti gli utenti.
Non per niente molti fans di arte generata dall’intelligenza artificiale affermano di preoccupati dell’effetto che potrebbe avere la rimozione dei meccanismi di sicurezza nei generatori di immagini. Bakz T. Future, che sarebbe un utente che gestisce un canale YouTube dedicato all’arte Ai, sostiene che la comunità di Unstable Diffusion siaa creando anche contenuti che potrebbero essere considerati pedopornografici.
Ed in merito pare che sia uscito il nome di Emad Mostaque, ossia colui che creò Stable Diffusion. In origine l’idea era quella di rendere la creazione di immagini Ai più potente e accessibile. Dopo un po’ di tempo rimase stupito dalla gamma di applicazioni trovate in poco tempo dagli utenti per Stable Diffusion. Gli sviluppatori hanno anche realizzato plugin per programmi complessi come Photoshop in maniera tale da dare modo di creare facilmente le immagini AI, inserendo nuove funzionalità come l’applicazione istantanea di un particolare stile artistico a un’immagine esistente.
🔴 Fonte: www.wired.it