Giornate dell’audiovisivo” in mattinata e presentazione della Casa delle Tecnologie Emergenti nel pomeriggio. Questi i due focus scelti per i lavori della seconda giornata di Matera Digital Week, evento organizzato dalla Casa delle Tecnologie Emergenti di Matera che fino a domenica 26 giugno si occupà sperimentazione delle tecnologie di frontiera, alla ricerca scientifica applicata e al trasferimento tecnologico.
Il focus sul mondo degli Audiovisivi in collaborazione con il MIA (Mercato internazionale Audiovisivo e il Ministero dello Sviluppo economico) è partito con il panel su “Storytelling Digitale”.
Esiste una galassia di forme, modi e pratiche dell’audiovisivo che non sono più riconducibili al cinema e alla televisione. Si tratta di video di diversa natura e diversa provenienza che si basano su tecnologie digitali differenti e che invadono i nostri schermi e i nostri immaginari. Frutto di una ibridazione profonda tra linguaggio cinematografico e televisivo, che sono passati attraverso l’esperienza del video e della videoarte, che si collocano a diverso modo nel mondo dei videogame, che sperimentano esperienze immersive con la VR e la AR, che si situano nelle piattaforme e sui social e che definiscono nuovi modelli di comunicazione e di narrazione. Una galassia familiare a chiunque passi il proprio tempo fruendo video sugli smartphone o al computer o indossando particolari occhiali e caschetti sempre più presenti in festival, musei o nelle mostre. Ma soprattutto una galassia ben familiare alle generazioni più giovani. Ora, questa galassia è un mercato con alle spalle competenze e professionalità, che genera attenzione e interesse. In questo panel proviamo a capire, assieme ad alcuni produttori italiani, di quali contenuti parliamo, come vengono prodotti, quali competenze richiedono e quale mercato sono in grado di intercettare.
All’incontro, moderato da Simone Arcagni (Università di Palermo) hanno partecipato Adele Magnelli (ETT), Paolo Bigazzi Alderigi (Iter Research), Christian Nucibella (Filoblu), Vincenzo Piscopo (Ciaopeople) e Luca Tesauro (Giffoni Innovation Hub).
Il secondo panel è stato dedicato allo scenario dei nuovi free streaming e la produzione di nuovi contenuti originali.
Con l’avvento delle nuove offerte di streaming gratuito supportato dalla pubblicità (FAST), si arricchisce il panorama di contenuti disponibili gratuitamente sulle piattaforme.Nuove realtà si affacciano in Italia con canali tematici capaci di attrarre pubblici sempre più specializzati. Nell’incontro sono state analizzate le strategie della piattaforma Samsung Tv Plus su Got Game il primo canale italiano dedicato ai gamer. Il canale ospita contenuti 24/7 dedicati al mondo del gaming, spaziando tra programmi su videogiochi, anime, approfondimenti sui più importanti protagonisti del settore e produzioni originali. Samsung TV Plus è il primo servizio gratuito in streaming FAST/AVOD lanciato in Italia nel 2019 preinstallato su tutte le Smart TV Samsung prodotte dopo il 2016. La piattaforma amplia il proprio catalogo accogliendo PlayerZ (serie comedy in 10 episodi), la nuova produzione fiction originale di Got Game firmata dai registi Matteo Branciamore e Giorgio Croce Nanni.
All’incontro, moderato da Gaia Tridente (MIA), hanno partecipato Cristina Sala (TV Plus, ESBO – Samsung TV Plus), Luca Rochira (Got Game), Giorgio Croce Nanni (Player Z) e Matteo Branciamore (Player Z)
Nel pomeriggio spazio al panel sul tema “Fondi e incentivi per l’innovazione digitale per l’industria audiovisiva”. In questa sessione è stato approfondito il rapporto tra le Film Commission e il sostegno all’innovazione digitale, portando all’attenzione della Digital Week due esempi concreti messi in atto da alcune delle Regioni coinvolte, tra cui: il fondo “Veneto Production Film & TV Fund” per produrre opere XR (Virtual Reality – VR, Augmented Reality – AR e Mixed Reality – MR) e il case study di Manifatture Digitali Cinema, l’infrastruttura tutta toscana che offre supporto a chi sceglie di girare nella regione, mettendo a disposizione servizi innovativi per le produzioni cinematografiche e audiovisive.
All’incontro, moderato da Gaia Tridente (MIA) hanno partecipato Jacopo Chessa (Fondazione Veneto Film Commission) e Stefania Ippoliti (Cinema Fondazione Sistema Toscana)
A seguire si è svolta laa presentazione della CTE di Matera in un panel dedicato con la presentazione degli eventi previsti nell’hub di San Rocco fino al 26 giugno.
Sono intervenuti l’assessore comunale all’innovazione Angelo Cotugno (Comune di Matera), Giordana Castelli (CNR), Tommaso Di Noia (Politecnico di Bari), Ugo Erra (Università della Basilicata), Raffaele Vitulli (Basilicata Creativa), Rocco Calandriello (Lucana Film Commission) e la Classe III F della Scuola Media Statale Pascoli di Matera.
L’ultima sessione della seconda giornata è stata dedicata alla presentazione dei risultati delle ricerche del Laboratorio di Musica Elettronica del Conservatorio Duni/MaterElettrica e del SisInfLab del Politecnico di Bari nel campo dell’Intelligenza Artificiale e dell’informatica musicale. Il nome del progetto è MAI – Musical Artificial Intelligence che porta avanti gli studi sull’evoluzione dell’IA nel contesto della produzione e degli applicativi musicali.
È uno dei trend tecnologici degli ultimi anni: mettere alla prova le macchine nella creazione di opere d’arte fornendo loro tutte le regole e le istruzioni del mestiere. I risultati non sono stati mai entusiasmanti alla luce della meccanicità impressa su di una tela o di uno spartito, privi di quel tocco umano che è possibile definire genio. Lo staff del Laboratorio di Musica Elettronica del Conservatorio Duni e del collettivo di MaterElettrica, in collaborazione con il SisInfLab, Laboratorio di Sistemi Informativi del Politecnico di Bari (unico caso in Italia di collaborazione fra un’università e un conservatorio nell’ambito dell’intelligenza artificiale) hanno invece ribaltato il punto di vista provando a mettere le macchine al servizio del genio e della mente umana nel campo della musica, della composizione e dell’esecuzione live.
Questa sera sono stati presentati al pubblico i sorprendenti risultati, attraverso dimostrazioni dal vivo, delle ricerche nel campo dell’informatica musicale estesa alle applicazioni nello sconfinato universo dell’intelligenza artificiale: attraverso un dispositivo elettroencefalografico – una sorta di caschetto da indossare sulla testa – vengono infatti rilevati in tempo reale i tracciati EEG del musicista, che, in questo modo, durante l’esecuzione live con il proprio strumento, “controlla con la mente” il computer che produce dei suoni o altera il timbro dello strumento stesso, secondo la volontà dell’artista. Una specie di “duetto” uomo-macchina, dove però la macchina non è altro che un’estensione della mente umana in grado di tradurre in musica il pensiero e le emozioni del musicista, il quale non si avvale dei dispositivi tradizionali – come tastiere e controller – ma solo dell’elettroencefalografo che, collegato ad una rete neurale artificiale, è in grado di riconoscere gli stati mentali dell’artista.
La tecnologia impiegata si basa sull’unione dello studio di nuove forme di composizione assistita, con le esigenze contemporanee di interfacciare nuove modalità performative col riconoscimento emotivo. Si è quindi elaborato un sistema che permette, attraverso il dispositivo elettroencefalografico, il controllo di reti neurali specificatamente addestrate. Queste a loro volta agiscono sui parametri sonori in tempo reale, e consento di controllare strutture compositive attraverso la mente del compositore, con il supporto di reti di deep learning pre-addestrate. In altre parole, l’esecutore agisce durante la performance sui diversi elementi che costituiscono la performance stessa, il compositore può realizzare le sue idee musicali direttamente, interfacciandosi con il computer tramite appunto il dispositivo elettroencefalografico, quindi con la sola mente.
Sono intervenuti Fabrizio Festa, docente presso il Conservatorio Duni di Matera, compositore e direttore d’orchestra che da molti anni si dedica alla ricerca nell’ambito dell’informatica musicale e delle neuroscienze, Tommaso Di Noia, docente di Intelligenza Artificiale presso il Politecnico di Bari, Tommaso Colafiglio, che ha conseguito un Master in Musica Elettronica e in Musica Applicata al Conservatorio Duni di Matera ed è attualmente vincitore di un assegno di ricerca presso il Politecnico di Bari, dove svolge attività di ricerca nel campo dell’Intelligenza Artificiale (rarissimo caso di uno diplomato di un’accademia che grazie agli studi di conservatorio accede a quelli di ingegneria) e Carmelo Ardito (Politecnico di Bari)
La fotogallery della seconda giornata di Matera Digital Week (foto www.SassiLive.it)