Newsletter

  • Massimiliano Zane, progettista culturale e consulente in economia della cultura

All’Art Basel di Hong Kong, l'artista cinese Lu Yang ha presentato Doku, un artista virtuale, senza genere, età o nazionalità, governat* dall’AI, concepita come una reincarnazione virtuale dell'artista stesso in un universo parallelo e virtuale che crea opere d'arte digitali attraverso un processo meditativo[1]. Kenza Layli, influencer virtuale generata da AI, creata dall'agenzia media marocchina L'Atelier Digital & AI, pioniere nel mercato africano e globale degli influencer digitali basati su IA, è stata incoronata come prima Miss AI al mondo nel 2024[2]. O, ancora, la piattaforma musicale Spotify ha introdotto nel marcato spagnolo e latinoamericano Livi, un DJ virtuale alimentato da AI che crea playlist personalizzate a partire dalla cronologia di ascolti e offre brevi commenti tra una canzone e l’altra, in spagnolo e in inglese[3]. Oppure, le opere del fotografo e artista nigeriano Malik Afegbua, che ha guadagnato notorietà internazionale con la serie The Elder Series in cui, con l'uso di piattaforme come Midjourney e strumenti di editing governati dall’ AI, ha sfidato gli stereotipi sull'invecchiamento creando immagini di anziani che sfilano su passerelle di moda[4]. O il fotografo belga Carl De Keyzer, membro dell'agenzia Magnum Photos, che ha pubblicato nel 2024 il libro Putin's Dream, una raccolta di immagini generate con AI che rappresentano una visione distopica della Russia contemporanea, sollevando interrogativi sul ruolo dell'AI nella fotografia documentaria e nella rappresentazione della verità[5].

Questi sono solo alcuni dei più recenti e controversi esempi cui si può attingere per rappresentare la portata dell’evoluzione che la creatività globale sta attraversando grazie – o per colpa – delle crescenti intersezioni del settore con l’AI. La tecnologia al servizio della creatività ha costantemente moltiplicato le sue applicazioni, producendo una crescita costante di domanda di contenuti culturali e creativi e una parallela moltiplicazione di format e proposte inedite. L’AI è solo l’ultimo esempio di questa evoluzione a supporto alla creatività umana. Un supporto che ormai si può considerare un elemento pervasivo nella nuova produzione a livello planetario.   Dalla generazione di immagini e musica alla scrittura assistita, fumetto al cinema, passando per i games e le arti performative, la AI, fino a poco tempo fa ad appannaggio di una ristretta èlite di tecnici, oggi si è fatta molto più “democratica”, permettendo a chiunque (o quasi) di esplorare nuove idee, velocizzare i processi e sperimentare stili creativi inediti consolidando sempre più la sua presenza nei processi creativi nei quattro angoli del mondo.

Nel panorama letterario globale, ad esempio, l'AI sta avendo un impatto significativo: come nel caso del cinese Shen Yang, professore in Comunicazione e Giornalismo, che ha scritto il romanzo di fantascienza Land of Memories[6] utilizzando un modello AI, vincendo il secondo premio al concorso giovanile di fantascienza della provincia di Jiangsu[7]. Ma non solo: le potenzialità dell’AI influenzano anche la distribuzione letteraria. Così abbiamo la casa editrice Spines, startup statunitense, specializzata nella commercializzazione delle produzioni emergenti, che ha annunciato l'intenzione di pubblicare fino a 8.000 libri nel 2025 contro una media di 50-150 libri/anno delle case editrici tradizionali, sfruttando l'AI per automatizzare gran parte del processo editoriale, dall’editing al design delle copertine, fino alla gestione automatizzata della distribuzione multicanale su piattaforme digitali o la britannica Pearson Education, uno dei principali editori dedicati al mondo dell’educazione del Regno Unito, che ha registrato una crescita delle vendite nel primo trimestre del 2025, proprio grazie all’impennata di domanda di risorse didattiche integrate con l'AI.

Restando nel campo della editoria, ma spostandoci nel mondo dei comics e dei manga, occorre richiamare la ormai stringente pervasività della AI in tutti i processi del settore, da quelli più creativi a quelli di distribuzione come una vera forza trasformativa. L'integrazione dell'AI in piattaforme come Infocom[8], ad esempio, promette di accelerare ulteriormente la produzione e la distribuzione di contenuti, ampliando l'accessibilità e l'efficienza del mercato. Parliamo di uno dei principali operatori giapponesi nella distribuzione di manga e fumetti digitali, che ha integrato l’AI nella propria piattaforma per assistere gli autori nei processi creativi, per analizzare le preferenze degli utenti e proporre manga e webcomic su misura per ogni lettore, oltre che per velocizzare i processi di editing, revisione e pubblicazione. Il tutto consente una distribuzione più rapida e capillare dei contenuti digitali e, grazie ad adattamenti automatici dei fumetti per diversi formati e dispositivi, facilita la diffusione internazionale dei titoli. E se nel 2022 la casa editrice indipendente statunitense Campfire Entertainment LLC, con sede a Brooklyn, New York, pubblicava Summer Island[9] di Steve Coulson, la prima graphic novel realizzata con l’ausilio di ChatGPT per la sua scrittura e Midjourney per la visualizzazione degli storyboard[10], nel 2024, sempre negli USA, Tokyopop, casa editrice con sede a Los Angeles, ha lanciato PromptPlay, una miniserie manga interattiva dove ogni capitolo viene generato da prompt scritti dai fan. Un team editoriale poi finalizza le storie e un motore AI propone disegni e dialoghi. I lettori votano per decidere la direzione successiva dando vita ad una nuova forma di fumetto generativo collettivo. Si tratta di un caso raro di fumetto non-lineare e interpretativo, dove l’AI agisce da narratore dinamico. A favorire questa prospettiva co-creativa va citato anche il crescente diffondersi nel web di software di AI avanzati[11], che hanno permesso di superare precedenti limiti di stabilità, precisione e controllo creativo. Questi strumenti governati da modelli avanzati di reti generative avversarie (GAN)[12] e di deep learning addestrati su manga classici, aiutano gli autori indipendenti del Sol Levante e non solo, a generare sfondi, espressioni facciali e layout di vignette consentendo anche a chi ha scarse abilità artistiche di produrre fumetti completi con qualità semi-professionale. Tra i mangaka giapponesi più rappresentativi in questo senso c’è Rootport, autore di Cyberpunk: Momotaro (noto anche con il titolo Cyberpunk: Peach Jhon), primo manga giapponese interamente illustrato da AI. Rootport, che non possiede abilità nel disegno, ha utilizzato l'AI Midjourney per generare circa 9.000 immagini in sei settimane, creando un manga a colori di oltre cento pagine. Il suo obiettivo era concentrarsi sulla narrazione, lasciando che l'AI si occupasse dell'aspetto visivo. Se il portato innovativo della sua opera è stato riconosciuto a livello internazionale –  il Time lo ha inserito tra le 100 persone più influenti nel campo dell’AI nel 2023 per il ruolo di apripista nell’unione tra narrazione umana e generazione visiva automatizzata –, anche il dibattito sollevato dalla sua opera ha travalicato i confini del Giappone. Dimostrando che non occorre un talento artistico dal punto di vista visivo ma basta una storia forte da raccontare per avere successo nel settore manga, ha sollevato questioni su creatività, copyright e futuro occupazionale nel settore.

Characters in the Cyberpunk Momotaro story line (Image via Sportskeeda)

Il fatto di rendere più accessibile e veloce la produzione di fumetti basati principalmente sulle immagini dal forte impatto visivo ed emozionale ha favorito un ulteriore trend del settore: il diffondersi dei così detti Silent Frames, fumetti privi di dialoghi o testi, che raccontano storie esclusivamente attraverso immagini.   Un esempio notevole, nonché il primo riconosciuto del genere, è Zarya of the Dawn autoprodotto dalla statunitense Kristina Kashtanova (2022), considerato uno dei primi fumetti al mondo realizzati con un contributo significativo dell’AI (la sua pubblicazione ha preceduto di 6 mesi quella di Rootport) che, sebbene contenga delle parti di testo, utilizza numerose vignette silenziose.

Parente prossimo dei comics, anche il mondo dei videogiochi non è immune dal fascino e dalle potenzialità della AI, capace ormai di introdurre innovazioni che vanno oltre la semplice automazione: in The Finals, gioco sviluppato e lanciato a dicembre 2024 dallo svedese Embark Studios, i bot[13] sono dotati di AI adattiva, il che li rende capaci di apprendere stili di gioco dei giocatori modificando conseguentemente i loro comportamenti e rendendo così il gioco sempre più sfidante e avvincente[14]. Grazie a sistemi di AI conversazionale, poi, i dialoghi tra i personaggi risultano più naturali, fluidi e meno ripetitivi. S.T.A.L.K.E.R. 2: Heart of Chornobyl, pubblicato a fine 2024 da GSC Game World, uno studio russo con sede a Kiev, sfrutta un sistema AI chiamato A-Life 2.0, che simula la vita indipendente di ogni creatura e fazione all’interno del gioco: anche quando il giocatore non è presente, i Non-Player Character (NPC)[15] - - ed entità AI interagiscono tra loro, combattono, si muovono, commerciano e influenzano dinamicamente il mondo digitale in cui letteralmente “vivono”. Similmente, il colosso francese Ubisoft ha lanciato la piattaforma Scalar[16], che utilizza l’AI cloud-based per creare mondi dinamici e persistenti nei giochi open-world[17]. L’AI gestisce in tempo reale elementi come il comportamento della fauna, eventi ambientali e interazioni complesse tra NPC, generando ambienti sempre diversi e credibili.

Come il gaming, poi, anche l’industria cinematografica globale è un altro settore che ha ormai fatto dell’innovazione 4.0 la sua cifra stilistica ed in cui creatività e tecnologia sono da sempre le protagoniste. L'AI, lo si è visto, sta trasformando vari aspetti della produzione: dalla sceneggiatura alla post-produzione, passando per la promozione e la distribuzione. Cose come la generazione di trame, la scrittura dei dialoghi, lo script editing, la generazione di intere colonne sonore e il casting assistito, fino alla gestione dei contenuti, alle previsioni di successo e alla personalizzazione dell'esperienza utente per la distribuzione sulle piattaforme streaming[18]: sono tutte pratiche ormai consolidate, che di fatto hanno già cambiato drasticamente il panorama dell’industria cinematografica. L’AI non solo può migliorare l'efficienza della produzione, ma offre anche vere e proprie nuove opportunità creative. Lo si è visto in passato, lo si vede ancor più oggi. Ed è proprio nella creazione “artistica” della settima arte che si registrano le novità più interessanti. A partire dal cinema di animazione, in cui cominciano a moltiplicarsi i casi di autoproduzioni interamente realizzate da AI. Tra queste, va senz’altro citato DreadClub: Vampire's Verdict[19], prodotto nel 2024 dal suo stesso regista, lo statunitense Hooroo Jackson: è il primo film d'animazione di lungometraggio generato in ogni sua fase interamente dalla AI, dalla sceneggiatura alle immagini, dall’animazione alle voci, dalla colonna sonora fino al montaggio. Altra autoproduzione di animazione interamente AI-generated ma proveniente dall’Estremo Oriente, firmata dalla giovane regista cinese Cao Yiwen di base ad Hong Kong, è senz’altro il film What's Next?, presentato al Festival Internazionale del Cinema di Berlino 2025. Per la loro portata rivoluzionaria, entrambe queste opere hanno ricevuto recensioni contrastanti e sollevato questioni etiche riguardo al copyright e alla legittimità artistica dell'uso dell'AI nell’audiovisivo.

A still from Ndoto.

Oppure Ndoto, primo film al mondo sul cambiamento climatico in Africa realizzato interamente con AI[20]diretto da Zain Verjee - ex corrispondente della CNN - e dal regista vincitore di Grammy Matthew Cullen. Il film prodotto da Mirada Studios - studio americano con sede a Los Angeles, co-fondato proprio da Matthew Cullen e Guillermo del Toro – e realizzato in una sola settimana, propone una narrazione visiva innovativa combinando immagini poetiche e iperrealistiche sugli effetti delle inondazioni, della siccità e della desertificazione nel continente.

Senza arrivare a casi limite come quelli appena descritti completamente AI-generated,  diversi sono gli esempi di una contaminazione crescente con gli strumenti generativi offerti dalla AI nel mondo del cinema: The Last Screenwriter (2024) del regista svizzero Peter Luisi e prodotto dalla casa svizzera Spotlight Media Productions AG, è un film di fantascienza il cui copione è stato interamente scritto da ChatGPT, mentre tutte le altre fasi della produzione (regia, recitazione, montaggio, musica, ecc.) sono state realizzate in modo “tradizionale”[21]. Questi esempi disegnano, ognuno a modo proprio, un momento importante nell'integrazione dell'AI nella creazione cinematografica.

Guardando ad un altro segmento limitrofe della produzione audiovisiva, ci si accorge che l’AI sta ridisegnando anche i confini della serialità televisiva. È il caso, ad esempio, della serie tedesca Cassandra, prodotta dalla Rat Pack Filmproduktion con sede a Monaco di Baviera, in cui l’AI generativa, oltre ad essere il fulcro narrativo, è stata utilizzata per simulare dialoghi alternativi e creare ambienti visivi retrò in fase di concept design, integrandosi nel processo creativo dalla scrittura alla produzione di immagini e animazioni, fino alla post-produzione. Altra collaborazione avanzata tra autori umani e strumenti di AI è, ad esempio,  la serie Cosmic Frontier, in uscita nel 2027, in cui la produzione, che fa capo alla società con base in Texas Space Nation Inc., fondata da un team di veterani dell'industria videoludica e cinematografica - tra cui il regista, sceneggiatore e produttore cinematografico tedesco Roland Emmerich -, ha utilizzato un'AI personalizzata per generare scenari futuristici, astronavi e altri elementi visivi distintivi, integrando tecnologia blockchain e intrattenimento[22].

Refik Anadol, Artificial Realities: Coral, 2023. Courtesy Refik Anadol Studios

L’AI poi viene utilizzata non solo per la scrittura della trama e dei dialoghi, ma anche per generare scenari, effetti speciali e musiche.  Ed a proposito di musiche, nel campo della produzione discografica va segnalato come, ad esempio, la società sudcoreana Supertone, supportata da HYBE - una delle più grandi e influenti società di intrattenimento nota soprattutto per essere la casa madre di celebri gruppi K-pop come BTS e TXT -, ha utilizzato l'AI per creare controparti digitali di artisti e interi gruppi musicali, consentendo di produrre canzoni multilingue e di resuscitare la voce di artisti defunti, come il cantante folk Kim Kwang-seok. O, ancora, il team cinese Asian Culture Research Team, che  ha partecipato con il brano Overfitting all'AI Song Contest 2024, principale concorso mondiale ideato dalla produttrice televisiva olandese Karen van Dijk – e nelle sue prime edizioni organizzato dall’emittente pubblica olandese VPRO - dedicato alle canzoni create dalla collaborazione tra uomo e macchina, arrivata alla sua quarta edizione svoltasi a Zurigo. Il collettivo cinese, composto da quattro membri (tre provenienti dall'industria musicale e un quarto dalla ricerca accademica nell’ambito del fashion AI), ha utilizzato l'AI per esplorare nuove frontiere nella composizione musicale, integrando elementi tradizionali con tecnologie avanzate in quasi tutte le fasi creative: dalla generazione dei suoni e delle strutture musicali, alla scrittura dei testi, fino alla definizione di melodia e armonie.

Ma non solo. L'uso dell'AI nel settore musicale si sta estendendo a tutte le fasi della filiera, ed è altrettanto rivoluzionario quanto nel cinema: dalla composizione alla produzione, fino alla distribuzione e fruizione. Così, se da un lato l’AI sta potenziando le sue applicazioni sulle piattaforme distributive di musica streaming come SpotifyApple Music YouTube Music, che usano sofisticati algoritmi per analizzare le abitudini di ascolto degli utenti, offrire playlist personalizzate (es. "Discover Weekly"), predire i gusti musicali futuri e suggerire nuovi brani/artisti, dall’altro lato, con sistemi di machine learning capaci di generare nuovi passaggi sonori e inedite composizioni musicali, strumenti di AI avanzati e specifici per il comparto[23] permettono anche a chi non conosce la teoria musicale o non suona strumenti di generare basi musicali originali in pochi click. In parallelo, piattaforme come le statunitensi Amper Music e Jukebox (OpenAI) o la lussemburghese AIVAsono capaci di generare e comporre musica originale in vari stili, grazie all'analisi di grandi dataset di brani esistenti, proponendo composizioni spesso indistinguibili da quelle umane. Un panorama, quindi, sempre più complesso per gli autori conclamati e le major, ma in cui si offrono enormi opportunità per i musicisti indipendenti, democratizzando non solo l’accesso a strumenti e risorse che in passato erano disponibili solo per artisti con grandi budget e supporto discografico, ma anche ai ricavi generati dal proprio lavoro.

Spostando l’attenzione al mondo delle arti performative, si sta assistendo a vere e proprie commistioni sempre più strette tra intelligenze umane e artificiali. La compagnia di danza britannica AΦE, ad esempio, ha creato Lilith.Aeon, considerata la prima produzione di danza al mondo guidata dall'AI, in cui questa tecnologia agisce come co-autore, coreografo e performer digitale, generando coreografie e narrazione in tempo reale e in dialogo diretto con il pubblico. Lo spettacolo è un'opera immersiva in cui l’AI apprende dai dati di motion capture dei danzatori umani e, durante la performance, controlla l’avatar digitale di Lilith, generando coreografie e risposte corporee nuove in tempo reale, anche in base all’interazione con il pubblico. Infatti, le scelte e le reazioni degli spettatori influenzano lo sviluppo narrativo e i movimenti della protagonista digitale, grazie a un sistema che integra AI, machine learning e tecnologie di realtà estesa.

O ancora, l'artista ganese Ama BE, in collaborazione con Ameera Kawash (ricercatrice e tecnologa creativa palestinese-irachena-americana), invece, ha realizzato una serie di performance che utilizzano sensori biometrici e l'AI per trasformare i dati corporei in opere digitali. Il progetto riflette sull'uso non consensuale dei dati e sull'eredità dello sfruttamento dei corpi neri, proponendo una nuova forma di espressione artistica e critica sociale.

Zarya Of The Dawn Image Source: Newshub

Ed a proposito di nuove possibilità di produzione artistica, l’AI ha reso il gesto artistico stesso sempre più votato alla ibridazione dei contenuti e dei linguaggi anche nel mondo delle arti visive. Prendiamo, ad esempio, l'artista singaporiana Niceaunties, che ha creato Into the Auntieverse[24], un progetto artistico che celebra la cultura delle "aunties" del sud-est asiatico[25], tra le opere più emblematiche per l’integrazione dell’AI nelle arti visive, grazie alla sua carica innovativa sia sul piano tecnico che concettuale. Niceaunties utilizza modelli di AI per visualizzare mondi surreali, scene mai esistite e narrazioni alternative, attraverso immagini e video AI-generated su cui è poi intervenuta con editing manuale, compositing e narrazione, dimostrando come AI e creatività umana possano dialogare e fondersi in un processo di co-creazione. O ancora l'artista turco Refik Anadol, tra i pionieri nell’integrazione dell’AI nelle arti visive e nei media digitali, oggi alla direzione del Refik Anadol Studio a Los Angeles,  ha presentato Echoes of the Earth: Living Archive., Pariamo di un'installazione che utilizza un modello AI sviluppato dallo stesso studio di Anadol e addestrato su milioni di immagini naturali provenienti da archivi scientifici e museali di tutto il mondo per creare paesaggi immersivi. Grazie alla collaborazione tra artisti, data scientist, istituzioni scientifiche e museali (come Smithsonian e Natural History Museum di Londra), l’AI ha agito come ponte tra discipline e strumento per la conservazione e la valorizzazione del patrimonio naturale, ottenendo una grande attenzione mondiale, grazie alla sua presentazione in sedi di rilievo come le Serpentine Galleries di Londra e il World Economic Forum di Davos. Ife Olowu, artista visivo nigeriano noto per essere tra i primi artisti in Africa ad integrare la realtà aumentata nelle sue opere pittoriche, ha proposto la collezione Colored Reality in cui combina pittura tradizionale e tecnologia, offrendo un'esperienza immersiva che fonde arte e AI (in questo caso, tramite AR). Dopo aver completato i dipinti con tecniche classiche (olio, acrilico), Olowu utilizza software AR per aggiungere effetti digitali, animazioni e suoni che si attivano tramite smartphone o dispositivi AR, animando in modo coinvolgente le opere. O ancora, l'artista messicano Alfredo Salazar-Caro ha presentato nel 2024 Como Semillas en el Viento, una scultura digitale in realtà aumentata che combina scansioni 3D di oggetti archeologici del pantheon Mexica, ritratti 3D di lavoratori migranti provenienti da Centro e Sud America e narrazioni poetiche.  L’AI è utilizzata per elaborare, combinare e animare questi dati visivi, creando una narrazione visiva e sonora che unisce cultura ancestrale e storie contemporanee.

In conclusione, ciò a cui stiamo assistendo a livello globale è il crescere esponenziale di applicazioni sempre più sofisticate nell’uso dell’intelligenza artificiale in ognuna delle arti. Questo sta creando veri e propri inediti spazi in cui riversare la creatività contemporanea, aprendo a possibilità anche solo pochi anni fa inimmaginabili. Tuttavia, le reazioni sono divisive e dicotomiche: da un lato cresce l’attenzione verso la difesa dei diritti d’autore[26] e di quella definita da Hayao Miyazaki “l’imperfezione propria della creatività umana”. Il riferimento è al recente caso che ha visto coinvolti Hayao Miyazaki, leggendario regista e animatore giapponese, e la nuova funzionalità di ChatGPT 4.0 capace di riprodurre qualsiasi foto in uno stile quasi identico a quello della produzione dello Studio Ghibli[27]. Dall’altro lato, quanto descritto dimostra che per quanti timori e perplessità il mondo possa avere, il rapporto tra AI e industrie culturali creative è ormai un dato di fatto inarrestabile con applicazioni innumerevoli in cui l’AI è parte del processo creativo e non più un mero strumento di supporto tecnico. A partire da questo presente, si intravede un futuro prossimo in cui l’intelligenza artificiale non è (quasi) più co-protagonista ma sempre più attore principale.
[1] Utilizzando strumenti di AI generativa e grafica computerizzata, Doku ha prodotto 108 opere digitali vendute come "blind boxes", sfidando le convenzioni sulla creazione e la valutazione dell'arte. Da anni l’artista lavora sul personaggio Doku, combinando tecnologia avanzata con temi filosofici e spirituali, in particolare la filosofia buddhista, neuroscienze e meditazione.
[2] Kenza Layli ha superato oltre 1.000 concorrenti grazie alla qualità delle sue immagini, alla coerenza visiva e al suo impegno su temi sociali. Con oltre 130.000 follower su Instagram, Layli collabora con marchi come Hyundai e Bioderma, rappresentando un nuovo modello di influencer digitale.
[3] Basato sulla voce della music editor Olivia Quiroz Roa di Città del Messico, Livi rappresenta un passo avanti nell'uso dell'AI per migliorare l'esperienza musicale degli utenti di lingua spagnola. Al momento, la funzionalità è ancora in fase beta e non è ancora raggiungibile dall’Italia.
[4] Il progetto ha ricevuto elogi da organizzazioni come l'Organizzazione Mondiale della Sanità per il suo contributo alla lotta contro l'ageismo.
[5] Il progetto ha suscitato controversie, portando Magnum Photos a prendere le distanze dall'opera, pur riconoscendo la sua provocazione artistica
[6] Attraverso 66 prompt, in circa tre ore, l'AI ha generato una bozza di 43.000 caratteri, da cui Shen ha selezionato 5.915 caratteri per la versione finale. Il romanzo racconta la storia di una neuroscienziata che cerca di recuperare i suoi ricordi nel metaverso dopo un'amnesia.
[7] Nonostante il concorso non prevedesse alcuna norma specifica che prevedesse l’esclusione qualora gli autori si fossero avvalsi di strumenti di AI, appurato il caso il romanzo è stato premiato ma non ha trovato spazio per la pubblicazione.
[8] Il settore dei fumetti digitali sta attirando sempre più significativi investimenti, lo dimostra l'acquisizione di Infocom, proprietaria della piattaforma MechaComic (tra le più grandi piattaforme di e-comics in Giappone), da parte di Blackstone per circa 1,8 miliardi di dollari.
[9] Summer Island è il primo volume della serie The Bestiary Chronicles, una raccolta di racconti horror-fantasy che esplorano un mondo invaso da mostri.
[10] L'autore ha usato l’AI per creare bozze narrative e visive, poi rifinite a mano. Il risultato è un fumetto che racconta una storia sul rapporto uomo-macchina, usando l’AI anche nel processo creativo stesso.
[11] Basti pensare a ComiPo AI, ComicsMaker.AI, Stable Diffusion, DALL-E, Tapas, Gumroad, itch.io: questi sono solo alcuni nomi di riferimento nel mondo della produzione “indipendente” di fumetti 4.0.
[12] Ossia, architetture di intelligenza artificiale che utilizzano due reti neurali in competizione per generare dati realistici.
[13] Personaggi o entità controllati dall’AI interna al gioco, anziché da giocatori umani.
[14] I bot in The Finals non seguono pattern fissi, ma analizzano le strategie e modificano i loro comportamenti per risultare sempre competitivi e realistici, offrendo un’esperienza simile al “giocatore contro il giocatore” anche in partite contro l’AI.
[15]I Non-Player Character sono i personaggi o entità controllati dal computer e non dai giocatori.
[16] Annunciata durante la Game Developers Conference 2022 di San Francisco, questa tecnologia cloud-native è stata sviluppata da Ubisoft Stockholm per consentire ai giochi di sfruttare la potenza del cloud, superando le limitazioni dell'hardware locale e offrendo esperienze di gioco più ampie e dinamiche.
[17] Titoli in cui il giocatore può esplorare liberamente un ambiente di gioco molto ampio e dettagliato, spesso senza percorsi o obiettivi obbligatori da seguire in modo lineare. Il giocatore può quindi decidere dove andare, quali missioni affrontare e in che ordine, vivendo avventure personalizzate.
[18] Grazie all'uso di AIdeep learning e big data, le piattaforme di streaming sono sempre più in grado di anticipare i gusti degli utenti, suggerendo contenuti su misura per ciascun individuo, aumentando l'engagement e il tempo trascorso sulla piattaforma stessa, autoalimentando questa tendenza in continua crescita.
[19]Con un budget di soli 400 dollari, DreadClub: Vampire's Verdict è stato presentato in anteprima online il 3 luglio 2024, seguito da un'uscita limitata nelle sale cinematografiche statunitensi il 4 luglio 2024. Successivamente, il film è stato reso disponibile per lo streaming su Amazon Prime Video il 26 luglio 2024.
[20] Il progetto dimostra come l'AI possa democratizzare la narrazione visiva e offrire nuove prospettive sulle crisi ambientali.
[21] La trama segue un autore che si confronta con un sistema di scrittura automatica in grado di superarlo. Il film, girato con un budget di 850.000 dollari, ha suscitato polemiche al punto che la sua anteprima a Londra è stata cancellata dopo proteste pubbliche. È stato successivamente distribuito gratuitamente online, accompagnato da documentazione sul processo creativo.
[22] Cosmic Frontier è una serie di fantascienza che funge da introduzione narrativa per il gioco di ruolo online multigiocatore di massa (Massively Multiplayer Online Role-Playing Game - MMORPG) Space Nation Online, basato su Ethereum. Oltre al gioco, quindi, Space Nation si espande in un universo transmediale che include cortometraggi animati, giochi spin-off e una serie TV in fase di sviluppo, appunto ambientata nello stesso universo visivo del gioco, con l'obiettivo di offrire una identità narrativa coerente e coinvolgente attraverso diversi media.
[23] Come, ad esempio, Boomy o Soundraw.
[24] Il progetto ha ricevuto riconoscimenti internazionali per la sua rappresentazione umoristica e toccante della vita delle donne anziane, affrontando temi come la solitudine e l'isolamento.
[25] Termine che nelle società asiatiche indica le donne mature, spesso viste attraverso stereotipi.
[26] Solo per fare un esempio, secondo una ricerca di CISAC, gli autori musicali e audiovisivi rischiano di perdere rispettivamente il 24% e il 21% delle entrate da diritti d'autore nei prossimi cinque anni a causa dell'uso non autorizzato delle loro opere da parte di sistemi AI.
[27] Da un lato Miyazaki ha sempre difeso una concezione dell’arte come espressione intima, imperfetta e profondamente umana, frutto di emozioni, memoria e contatto con la realtà. Dall’altro ChatGPT che, come altri modelli generativi, rappresenta un nuovo paradigma: uno strumento che non crea dal nulla, ma rielabora enormi quantità di dati umani, restituendo contenuti spesso coerenti e talvolta sorprendenti.

Devi accedere per poter salvare i contenuti