All’Art Basel di Hong Kong, l'artista cinese Lu Yang ha presentato Doku, un artista virtuale, senza genere, età o nazionalità, governat* dall’AI, concepita come una reincarnazione virtuale dell'artista stesso in un universo parallelo e virtuale che crea opere d'arte digitali attraverso un processo meditativo[1]. Kenza Layli, influencer virtuale generata da AI, creata dall'agenzia media marocchina L'Atelier Digital & AI, pioniere nel mercato africano e globale degli influencer digitali basati su IA, è stata incoronata come prima Miss AI al mondo nel 2024[2]. O, ancora, la piattaforma musicale Spotify ha introdotto nel marcato spagnolo e latinoamericano Livi, un DJ virtuale alimentato da AI che crea playlist personalizzate a partire dalla cronologia di ascolti e offre brevi commenti tra una canzone e l’altra, in spagnolo e in inglese[3]. Oppure, le opere del fotografo e artista nigeriano Malik Afegbua, che ha guadagnato notorietà internazionale con la serie The Elder Series in cui, con l'uso di piattaforme come Midjourney e strumenti di editing governati dall’ AI, ha sfidato gli stereotipi sull'invecchiamento creando immagini di anziani che sfilano su passerelle di moda[4]. O il fotografo belga Carl De Keyzer, membro dell'agenzia Magnum Photos, che ha pubblicato nel 2024 il libro Putin's Dream, una raccolta di immagini generate con AI che rappresentano una visione distopica della Russia contemporanea, sollevando interrogativi sul ruolo dell'AI nella fotografia documentaria e nella rappresentazione della verità[5].
Questi sono solo alcuni dei più recenti e controversi esempi cui si può attingere per rappresentare la portata dell’evoluzione che la creatività globale sta attraversando grazie – o per colpa – delle crescenti intersezioni del settore con l’AI. La tecnologia al servizio della creatività ha costantemente moltiplicato le sue applicazioni, producendo una crescita costante di domanda di contenuti culturali e creativi e una parallela moltiplicazione di format e proposte inedite. L’AI è solo l’ultimo esempio di questa evoluzione a supporto alla creatività umana. Un supporto che ormai si può considerare un elemento pervasivo nella nuova produzione a livello planetario. Dalla generazione di immagini e musica alla scrittura assistita, fumetto al cinema, passando per i games e le arti performative, la AI, fino a poco tempo fa ad appannaggio di una ristretta èlite di tecnici, oggi si è fatta molto più “democratica”, permettendo a chiunque (o quasi) di esplorare nuove idee, velocizzare i processi e sperimentare stili creativi inediti consolidando sempre più la sua presenza nei processi creativi nei quattro angoli del mondo.
Nel panorama letterario globale, ad esempio, l'AI sta avendo un impatto significativo: come nel caso del cinese Shen Yang, professore in Comunicazione e Giornalismo, che ha scritto il romanzo di fantascienza Land of Memories[6] utilizzando un modello AI, vincendo il secondo premio al concorso giovanile di fantascienza della provincia di Jiangsu[7]. Ma non solo: le potenzialità dell’AI influenzano anche la distribuzione letteraria. Così abbiamo la casa editrice Spines, startup statunitense, specializzata nella commercializzazione delle produzioni emergenti, che ha annunciato l'intenzione di pubblicare fino a 8.000 libri nel 2025 contro una media di 50-150 libri/anno delle case editrici tradizionali, sfruttando l'AI per automatizzare gran parte del processo editoriale, dall’editing al design delle copertine, fino alla gestione automatizzata della distribuzione multicanale su piattaforme digitali o la britannica Pearson Education, uno dei principali editori dedicati al mondo dell’educazione del Regno Unito, che ha registrato una crescita delle vendite nel primo trimestre del 2025, proprio grazie all’impennata di domanda di risorse didattiche integrate con l'AI.
Restando nel campo della editoria, ma spostandoci nel mondo dei comics e dei manga, occorre richiamare la ormai stringente pervasività della AI in tutti i processi del settore, da quelli più creativi a quelli di distribuzione come una vera forza trasformativa. L'integrazione dell'AI in piattaforme come Infocom[8], ad esempio, promette di accelerare ulteriormente la produzione e la distribuzione di contenuti, ampliando l'accessibilità e l'efficienza del mercato. Parliamo di uno dei principali operatori giapponesi nella distribuzione di manga e fumetti digitali, che ha integrato l’AI nella propria piattaforma per assistere gli autori nei processi creativi, per analizzare le preferenze degli utenti e proporre manga e webcomic su misura per ogni lettore, oltre che per velocizzare i processi di editing, revisione e pubblicazione. Il tutto consente una distribuzione più rapida e capillare dei contenuti digitali e, grazie ad adattamenti automatici dei fumetti per diversi formati e dispositivi, facilita la diffusione internazionale dei titoli. E se nel 2022 la casa editrice indipendente statunitense Campfire Entertainment LLC, con sede a Brooklyn, New York, pubblicava Summer Island[9] di Steve Coulson, la prima graphic novel realizzata con l’ausilio di ChatGPT per la sua scrittura e Midjourney per la visualizzazione degli storyboard[10], nel 2024, sempre negli USA, Tokyopop, casa editrice con sede a Los Angeles, ha lanciato PromptPlay, una miniserie manga interattiva dove ogni capitolo viene generato da prompt scritti dai fan. Un team editoriale poi finalizza le storie e un motore AI propone disegni e dialoghi. I lettori votano per decidere la direzione successiva dando vita ad una nuova forma di fumetto generativo collettivo. Si tratta di un caso raro di fumetto non-lineare e interpretativo, dove l’AI agisce da narratore dinamico. A favorire questa prospettiva co-creativa va citato anche il crescente diffondersi nel web di software di AI avanzati[11], che hanno permesso di superare precedenti limiti di stabilità, precisione e controllo creativo. Questi strumenti governati da modelli avanzati di reti generative avversarie (GAN)[12] e di deep learning addestrati su manga classici, aiutano gli autori indipendenti del Sol Levante e non solo, a generare sfondi, espressioni facciali e layout di vignette consentendo anche a chi ha scarse abilità artistiche di produrre fumetti completi con qualità semi-professionale. Tra i mangaka giapponesi più rappresentativi in questo senso c’è Rootport, autore di Cyberpunk: Momotaro (noto anche con il titolo Cyberpunk: Peach Jhon), primo manga giapponese interamente illustrato da AI. Rootport, che non possiede abilità nel disegno, ha utilizzato l'AI Midjourney per generare circa 9.000 immagini in sei settimane, creando un manga a colori di oltre cento pagine. Il suo obiettivo era concentrarsi sulla narrazione, lasciando che l'AI si occupasse dell'aspetto visivo. Se il portato innovativo della sua opera è stato riconosciuto a livello internazionale – il Time lo ha inserito tra le 100 persone più influenti nel campo dell’AI nel 2023 per il ruolo di apripista nell’unione tra narrazione umana e generazione visiva automatizzata –, anche il dibattito sollevato dalla sua opera ha travalicato i confini del Giappone. Dimostrando che non occorre un talento artistico dal punto di vista visivo ma basta una storia forte da raccontare per avere successo nel settore manga, ha sollevato questioni su creatività, copyright e futuro occupazionale nel settore.

Il fatto di rendere più accessibile e veloce la produzione di fumetti basati principalmente sulle immagini dal forte impatto visivo ed emozionale ha favorito un ulteriore trend del settore: il diffondersi dei così detti Silent Frames, fumetti privi di dialoghi o testi, che raccontano storie esclusivamente attraverso immagini. Un esempio notevole, nonché il primo riconosciuto del genere, è Zarya of the Dawn autoprodotto dalla statunitense Kristina Kashtanova (2022), considerato uno dei primi fumetti al mondo realizzati con un contributo significativo dell’AI (la sua pubblicazione ha preceduto di 6 mesi quella di Rootport) che, sebbene contenga delle parti di testo, utilizza numerose vignette silenziose.
Parente prossimo dei comics, anche il mondo dei videogiochi non è immune dal fascino e dalle potenzialità della AI, capace ormai di introdurre innovazioni che vanno oltre la semplice automazione: in The Finals, gioco sviluppato e lanciato a dicembre 2024 dallo svedese Embark Studios, i bot[13] sono dotati di AI adattiva, il che li rende capaci di apprendere stili di gioco dei giocatori modificando conseguentemente i loro comportamenti e rendendo così il gioco sempre più sfidante e avvincente[14]. Grazie a sistemi di AI conversazionale, poi, i dialoghi tra i personaggi risultano più naturali, fluidi e meno ripetitivi. S.T.A.L.K.E.R. 2: Heart of Chornobyl, pubblicato a fine 2024 da GSC Game World, uno studio russo con sede a Kiev, sfrutta un sistema AI chiamato A-Life 2.0, che simula la vita indipendente di ogni creatura e fazione all’interno del gioco: anche quando il giocatore non è presente, i Non-Player Character (NPC)[15] - - ed entità AI interagiscono tra loro, combattono, si muovono, commerciano e influenzano dinamicamente il mondo digitale in cui letteralmente “vivono”. Similmente, il colosso francese Ubisoft ha lanciato la piattaforma Scalar[16], che utilizza l’AI cloud-based per creare mondi dinamici e persistenti nei giochi open-world[17]. L’AI gestisce in tempo reale elementi come il comportamento della fauna, eventi ambientali e interazioni complesse tra NPC, generando ambienti sempre diversi e credibili.
Come il gaming, poi, anche l’industria cinematografica globale è un altro settore che ha ormai fatto dell’innovazione 4.0 la sua cifra stilistica ed in cui creatività e tecnologia sono da sempre le protagoniste. L'AI, lo si è visto, sta trasformando vari aspetti della produzione: dalla sceneggiatura alla post-produzione, passando per la promozione e la distribuzione. Cose come la generazione di trame, la scrittura dei dialoghi, lo script editing, la generazione di intere colonne sonore e il casting assistito, fino alla gestione dei contenuti, alle previsioni di successo e alla personalizzazione dell'esperienza utente per la distribuzione sulle piattaforme streaming[18]: sono tutte pratiche ormai consolidate, che di fatto hanno già cambiato drasticamente il panorama dell’industria cinematografica. L’AI non solo può migliorare l'efficienza della produzione, ma offre anche vere e proprie nuove opportunità creative. Lo si è visto in passato, lo si vede ancor più oggi. Ed è proprio nella creazione “artistica” della settima arte che si registrano le novità più interessanti. A partire dal cinema di animazione, in cui cominciano a moltiplicarsi i casi di autoproduzioni interamente realizzate da AI. Tra queste, va senz’altro citato DreadClub: Vampire's Verdict[19], prodotto nel 2024 dal suo stesso regista, lo statunitense Hooroo Jackson: è il primo film d'animazione di lungometraggio generato in ogni sua fase interamente dalla AI, dalla sceneggiatura alle immagini, dall’animazione alle voci, dalla colonna sonora fino al montaggio. Altra autoproduzione di animazione interamente AI-generated ma proveniente dall’Estremo Oriente, firmata dalla giovane regista cinese Cao Yiwen di base ad Hong Kong, è senz’altro il film What's Next?, presentato al Festival Internazionale del Cinema di Berlino 2025. Per la loro portata rivoluzionaria, entrambe queste opere hanno ricevuto recensioni contrastanti e sollevato questioni etiche riguardo al copyright e alla legittimità artistica dell'uso dell'AI nell’audiovisivo.

Oppure Ndoto, primo film al mondo sul cambiamento climatico in Africa realizzato interamente con AI[20]diretto da Zain Verjee - ex corrispondente della CNN - e dal regista vincitore di Grammy Matthew Cullen. Il film prodotto da Mirada Studios - studio americano con sede a Los Angeles, co-fondato proprio da Matthew Cullen e Guillermo del Toro – e realizzato in una sola settimana, propone una narrazione visiva innovativa combinando immagini poetiche e iperrealistiche sugli effetti delle inondazioni, della siccità e della desertificazione nel continente.
Senza arrivare a casi limite come quelli appena descritti completamente AI-generated, diversi sono gli esempi di una contaminazione crescente con gli strumenti generativi offerti dalla AI nel mondo del cinema: The Last Screenwriter (2024) del regista svizzero Peter Luisi e prodotto dalla casa svizzera Spotlight Media Productions AG, è un film di fantascienza il cui copione è stato interamente scritto da ChatGPT, mentre tutte le altre fasi della produzione (regia, recitazione, montaggio, musica, ecc.) sono state realizzate in modo “tradizionale”[21]. Questi esempi disegnano, ognuno a modo proprio, un momento importante nell'integrazione dell'AI nella creazione cinematografica.
Guardando ad un altro segmento limitrofe della produzione audiovisiva, ci si accorge che l’AI sta ridisegnando anche i confini della serialità televisiva. È il caso, ad esempio, della serie tedesca Cassandra, prodotta dalla Rat Pack Filmproduktion con sede a Monaco di Baviera, in cui l’AI generativa, oltre ad essere il fulcro narrativo, è stata utilizzata per simulare dialoghi alternativi e creare ambienti visivi retrò in fase di concept design, integrandosi nel processo creativo dalla scrittura alla produzione di immagini e animazioni, fino alla post-produzione. Altra collaborazione avanzata tra autori umani e strumenti di AI è, ad esempio, la serie Cosmic Frontier, in uscita nel 2027, in cui la produzione, che fa capo alla società con base in Texas Space Nation Inc., fondata da un team di veterani dell'industria videoludica e cinematografica - tra cui il regista, sceneggiatore e produttore cinematografico tedesco Roland Emmerich -, ha utilizzato un'AI personalizzata per generare scenari futuristici, astronavi e altri elementi visivi distintivi, integrando tecnologia blockchain e intrattenimento[22].

L’AI poi viene utilizzata non solo per la scrittura della trama e dei dialoghi, ma anche per generare scenari, effetti speciali e musiche. Ed a proposito di musiche, nel campo della produzione discografica va segnalato come, ad esempio, la società sudcoreana Supertone, supportata da HYBE - una delle più grandi e influenti società di intrattenimento nota soprattutto per essere la casa madre di celebri gruppi K-pop come BTS e TXT -, ha utilizzato l'AI per creare controparti digitali di artisti e interi gruppi musicali, consentendo di produrre canzoni multilingue e di resuscitare la voce di artisti defunti, come il cantante folk Kim Kwang-seok. O, ancora, il team cinese Asian Culture Research Team, che ha partecipato con il brano Overfitting all'AI Song Contest 2024, principale concorso mondiale ideato dalla produttrice televisiva olandese Karen van Dijk – e nelle sue prime edizioni organizzato dall’emittente pubblica olandese VPRO - dedicato alle canzoni create dalla collaborazione tra uomo e macchina, arrivata alla sua quarta edizione svoltasi a Zurigo. Il collettivo cinese, composto da quattro membri (tre provenienti dall'industria musicale e un quarto dalla ricerca accademica nell’ambito del fashion AI), ha utilizzato l'AI per esplorare nuove frontiere nella composizione musicale, integrando elementi tradizionali con tecnologie avanzate in quasi tutte le fasi creative: dalla generazione dei suoni e delle strutture musicali, alla scrittura dei testi, fino alla definizione di melodia e armonie.
Ma non solo. L'uso dell'AI nel settore musicale si sta estendendo a tutte le fasi della filiera, ed è altrettanto rivoluzionario quanto nel cinema: dalla composizione alla produzione, fino alla distribuzione e fruizione. Così, se da un lato l’AI sta potenziando le sue applicazioni sulle piattaforme distributive di musica streaming come Spotify, Apple Music o YouTube Music, che usano sofisticati algoritmi per analizzare le abitudini di ascolto degli utenti, offrire playlist personalizzate (es. "Discover Weekly"), predire i gusti musicali futuri e suggerire nuovi brani/artisti, dall’altro lato, con sistemi di machine learning capaci di generare nuovi passaggi sonori e inedite composizioni musicali, strumenti di AI avanzati e specifici per il comparto[23] permettono anche a chi non conosce la teoria musicale o non suona strumenti di generare basi musicali originali in pochi click. In parallelo, piattaforme come le statunitensi Amper Music e Jukebox (OpenAI) o la lussemburghese AIVA, sono capaci di generare e comporre musica originale in vari stili, grazie all'analisi di grandi dataset di brani esistenti, proponendo composizioni spesso indistinguibili da quelle umane. Un panorama, quindi, sempre più complesso per gli autori conclamati e le major, ma in cui si offrono enormi opportunità per i musicisti indipendenti, democratizzando non solo l’accesso a strumenti e risorse che in passato erano disponibili solo per artisti con grandi budget e supporto discografico, ma anche ai ricavi generati dal proprio lavoro.
Spostando l’attenzione al mondo delle arti performative, si sta assistendo a vere e proprie commistioni sempre più strette tra intelligenze umane e artificiali. La compagnia di danza britannica AΦE, ad esempio, ha creato Lilith.Aeon, considerata la prima produzione di danza al mondo guidata dall'AI, in cui questa tecnologia agisce come co-autore, coreografo e performer digitale, generando coreografie e narrazione in tempo reale e in dialogo diretto con il pubblico. Lo spettacolo è un'opera immersiva in cui l’AI apprende dai dati di motion capture dei danzatori umani e, durante la performance, controlla l’avatar digitale di Lilith, generando coreografie e risposte corporee nuove in tempo reale, anche in base all’interazione con il pubblico. Infatti, le scelte e le reazioni degli spettatori influenzano lo sviluppo narrativo e i movimenti della protagonista digitale, grazie a un sistema che integra AI, machine learning e tecnologie di realtà estesa.
O ancora, l'artista ganese Ama BE, in collaborazione con Ameera Kawash (ricercatrice e tecnologa creativa palestinese-irachena-americana), invece, ha realizzato una serie di performance che utilizzano sensori biometrici e l'AI per trasformare i dati corporei in opere digitali. Il progetto riflette sull'uso non consensuale dei dati e sull'eredità dello sfruttamento dei corpi neri, proponendo una nuova forma di espressione artistica e critica sociale.

Ed a proposito di nuove possibilità di produzione artistica, l’AI ha reso il gesto artistico stesso sempre più votato alla ibridazione dei contenuti e dei linguaggi anche nel mondo delle arti visive. Prendiamo, ad esempio, l'artista singaporiana Niceaunties, che ha creato Into the Auntieverse[24], un progetto artistico che celebra la cultura delle "aunties" del sud-est asiatico[25], tra le opere più emblematiche per l’integrazione dell’AI nelle arti visive, grazie alla sua carica innovativa sia sul piano tecnico che concettuale. Niceaunties utilizza modelli di AI per visualizzare mondi surreali, scene mai esistite e narrazioni alternative, attraverso immagini e video AI-generated su cui è poi intervenuta con editing manuale, compositing e narrazione, dimostrando come AI e creatività umana possano dialogare e fondersi in un processo di co-creazione. O ancora l'artista turco Refik Anadol, tra i pionieri nell’integrazione dell’AI nelle arti visive e nei media digitali, oggi alla direzione del Refik Anadol Studio a Los Angeles, ha presentato Echoes of the Earth: Living Archive., Pariamo di un'installazione che utilizza un modello AI sviluppato dallo stesso studio di Anadol e addestrato su milioni di immagini naturali provenienti da archivi scientifici e museali di tutto il mondo per creare paesaggi immersivi. Grazie alla collaborazione tra artisti, data scientist, istituzioni scientifiche e museali (come Smithsonian e Natural History Museum di Londra), l’AI ha agito come ponte tra discipline e strumento per la conservazione e la valorizzazione del patrimonio naturale, ottenendo una grande attenzione mondiale, grazie alla sua presentazione in sedi di rilievo come le Serpentine Galleries di Londra e il World Economic Forum di Davos. Ife Olowu, artista visivo nigeriano noto per essere tra i primi artisti in Africa ad integrare la realtà aumentata nelle sue opere pittoriche, ha proposto la collezione Colored Reality in cui combina pittura tradizionale e tecnologia, offrendo un'esperienza immersiva che fonde arte e AI (in questo caso, tramite AR). Dopo aver completato i dipinti con tecniche classiche (olio, acrilico), Olowu utilizza software AR per aggiungere effetti digitali, animazioni e suoni che si attivano tramite smartphone o dispositivi AR, animando in modo coinvolgente le opere. O ancora, l'artista messicano Alfredo Salazar-Caro ha presentato nel 2024 Como Semillas en el Viento, una scultura digitale in realtà aumentata che combina scansioni 3D di oggetti archeologici del pantheon Mexica, ritratti 3D di lavoratori migranti provenienti da Centro e Sud America e narrazioni poetiche. L’AI è utilizzata per elaborare, combinare e animare questi dati visivi, creando una narrazione visiva e sonora che unisce cultura ancestrale e storie contemporanee.

