Upload
giuseppe-ridolfi
View
291
Download
8
Embed Size (px)
DESCRIPTION
Ambienti interattivi, tesi di laurea di Marco Inglese, AA. 2009_10 al corso di laurea triennale in disegno Industrale. Relatore: prof. Giuseppe Ridolfi
Citation preview
Anno Accademico 2008/2009
Corso di Laurea in Disegno IndustrialeCurriculum Comunicazione Visiva
tesi di Laurea di Marco Inglese, relatore Prof. Giuseppe Ridolfi, correlatore esterno Ing. Maurizio Baldini
PROGETTAZIONE PER VIDEOAMBIENTI INTERATTIVI
-TOTAL PEOPLE SCANNING-
Università degli Studi di Firenze - Facoltà di Architettura
Il progetto Mailab è un laboratorio congiunto Università–
Impresa per la realizzazione di gruppi di lavoro misti che
riuniscano le competenze e le professionalità dei seguenti
soggetti con specifiche esperienze, maturate nel corso di
alcuni decenni, nei settori delle tecnologie digitali, della
comunicazione e dell’automazione.
Questa tesi nasce dunque con il supporto di Mailab che,
istituzionalmente, tra i suoi obiettivi pone quello di supportare
studenti laureandi, in specialistica, dottorati, e/o
ricercatori, sulla base degli accordi e degli obiettivi sanciti
dalla Convenzione tra l’Università degli Studi di Firenze e
l’Associazione degli Industriali della Provincia di Firenze per
la realizzazione di Laboratori congiunti Università–Impresa e
gruppi di lavoro misti.
Dipartimento Tecnologie dell’Architettura e Design “Pierluigi Spadolini”
Aida, Firenze
High Tech Value, Firenze
Idee Digitali
Responsabile scentifico: prof. Giuseppe Ridolfi
www2.mailab.biz
3
Mailab.biz
- ai miei genitori -
- SOMMARIO -
0. Premessa-Interaction design environment-
-Ricerca e analisi-
1. Estetica e composizione dello spazio-Potenzialità di un dispositivo tecnologico-
-Cinetica e materia-
-Lo spazio scenico-
2. Il video-Immagini in movimento-
-VT is not TV-
-Videoambienti-
3. Arte elettronica-Ambienti sensibili-
-la scena digitale-
-Vjing e live media-
-9-
-12-
-16-
-32-
-40-
-56-
-68-
-78-
-96-
-106-
-114-
4. Strumenti-Piattaforme elettroniche-
-Motion capture-
-Programmazione visuale-
5. Progettazione-Concept-
-Sviluppo del progetto nello spazio-
-Editing multimediale-
-Sistemea interattivo integrato-
-Allestimento e conclusioni-
Osservazioni conclusive
Bibliografia
Webografia
Filmografia
-124-
-132-
-142-
-166-
-170-
-176-
-182-
-186-
-194-
-198-
-199-
-200-
L’interaction design è principalmente progettazione
dell’interazione tra uomo e macchina, un argomento troppo
vasto e ambiguo per essere raccontato in questo paragrafo,
tuttavia è bene svilupparne alcuni concetti, al fine di introdurre
quella che è la mia filosofia d’approccio a tale disciplina,
nonché il filo conduttore dei vari contenuti che seguiranno
in questo testo.
Il passaggio dall’analogico al digitale rappresenta una
trasformazione tecnico-culturale che ha sconvolto l’utilizzo
e la fruizione degli strumenti tecnologici, le quali possibilità
vengono amplificate esponenzialmente, ma che rimandano
sempre e comunque ad una matrice rintracciabile di 0 e 1.
9Introduzione
-Interaction design environment-
0. Premessa
Laurent Mignonneau & Corista Sommerer
The living room, 2001
10Introduzione
Quindi a un processo di virtualizzazione che si innesca non
solo nel mezzo di comunicazione digitale, ma anche nell’utente
stesso, il quale attraverso svariati strumenti d’interfaccia con il
sistema, quali il mouse o la tastiera, per fare due esempi molto
comuni, producono un’ulteriore virtualizzazione delle azioni
proprie dell’utente stesso laddove un’eccessiva possibilità
di programmazione digitale, si potrebbe amplificare sino
all’ipertrofia. Pertanto è necessario uno studio delle tecniche
digitali legate all’esigenza creativa e artistica allo scopo
di facilitare le scelte più consoni e conformi alla propria
aspettativa performativa, partendo dalle soluzioni offerte dal
dispositivo per inventarne nuove forme d’uso.
Nel caso dell’interaction design il comportamento del
sistema non è fisso, ma legato agli input forniti dall’utente-
spettatore dell’opera, quindi è opportuno pianificare un
metodo procedurale attraverso il quale porre il computer e
gli strumenti tecnologici utilizzati al servizio dell’idea creativa:
in questo caso, il campo d’indagine specifico è dunque la
creazione di spazi che possano immergere lo spettatore
in una dimensione sensoriale attraverso le ibridazioni e le
contaminazioni tra l’arte, il video e la tecnologia digitale,
di conseguenza, verranno prese in analisi le procedure e le
tecnologie che consentono l’interazione con tale ambiente.
11Introduzione
Progettare un ambiente interattivo. Questa è la
problematica principale di questa tesi, attorno alla quale si
articola un dibattito ampio ed eterogeneo atto ad individuarne
le linee guida per una corretta progettazione, sia tecnica che
artistica. Il seguente percorso critico-progettuale, si sviluppa,
dapprima attraverso un’analisi storico-artistica che ricalca
l’estetica delle varie correnti artistiche del 900, attraversando
trasversalmente vari campi quali l’architettura, l’arte, il
teatro, il design, facendo attenzione a particolari esponenti
ed opere, di cui i contributi hanno segnato una svolta nella
nascita di questa nuova disciplina che è l’interaction design.1
Il passo successivo dunque sarà soffermarsi sulla scelta di
un preciso canale di comunicazione tra i vari a disposizione
ed approfondirne le capacità tecniche, quanto le possibilità
artistiche che sono state sfruttate sin dalla nascita di tale
mezzo, fino alle più recenti tendenze contemporanee: presa
in considerazione la mia formazione universitaria, nonché
l’utilizzo massivo di tale strumento, la mia scelta, non poteva
che ricadere sul video2, in particolare per la sua capacità
di comunicazione universale, che prescinde dalle differenze
culturali e/o geografiche, quindi la possibilità di acquisire
conoscenze per una progettazione specifica destinata
ad un ambito generale con un ampio target. Come per la
prima ricerca, occorre formulare un’analisi storico-artistica,
esclusivamente relativa ad un determinato ambito quale il
1. L’interaction design è l’attività di progettazione dell’interazione che avviene tra esseri umani e sistemi meccanici e informatici. Scopo fondamentale della progettazione dell’interazione è rendere possibile e facilitare al massimo per un essere umano l’uso e l’interazione con macchine (meccaniche e digitali), e la fruizione di servizi e sistemi complessi in modo proficuo e soddisfacente.
2. Per “video” si intende il campo di ricerca, sperimentazione e pratica delle immagini in movimento elettroniche e digitali ad esclusione di quelli cinematografiche e televisive.
12Introduzione
-Ricerca e analisi-
video, sulla nascita e sull’utilizzo del mezzo, confrontando
le diverse soluzioni presentate dai vari artisti nel corso degli
anni, in particolare sulle opere che pongono l’interazione
come elemento imprescindibile per la fruizione dell’opera
stessa al fine di acquisire consapevolezza delle svariate
possibilità di comunicazione che offre il mezzo stesso e
prenderne spunto per la formulazione di un progetto originale
adatto alla commissione sottoposta.
Terzo, ed ultimo quesito, riguarda la parte tecnologica,
ovvero la ricerca delle possibilità che oggi il mercato offre
nell’ambito dell’interaction design, nello specifico, sulle
video-proiezioni bcome forma definitiva di attuazione del
progetto. Quest’ultima, rappresenta la parte più innovativa
ed interessante della tesi, in merito ad attualità dei
contenuti, nonché alla mancanza di una precisa panoramica
sull’argomento, tuttora in via di sviluppo, pertanto difficile
da catalogare ed analizzare.
Infine, una volta, determinata la panoramica generale,
segue l’approfondimento relativo alle scelte effettuate in
relazione al progetto da realizzare, entrando così nell’ambito
puramente progettuale dove ogni produzione viene
accompagnata da un accurato studio delle problematiche,
quindi delle eventuali soluzioni, come supporto imprescindibile
dalla realizzazione concreta del progetto.
13Introduzione
15Capitolo 1
1. Estetica e composizione dello spazio-Storia e tecniche-
Il primo connubio tra sperimentazione tecnologica
e ricerca artistica che indubbiamente ha influenzato
la successiva evoluzione dell’interaction design risale
addirittura al decennio 1725-1735, anni in cui il gesuita Louis-
Bertrand Castel, fisico e matematico francese, presentava il
“clavicembalo oculare”, strumento in grado di interfacciare
un rapporto audiovisivo sinestetico ben definito, dando vita
alla cosiddetta “musica a colori”: ad ogni nota veniva quindi
associata, secondo studi approfonditi dello stesso gesuita,
un colore, il quale appariva proprio in corrispondenza
dell’attivazione del suddetto tasto. La struttura si presentava
con una cassa di 6 metri, costruita sopra la parte preesistente
del clavicembalo, contenente 60 finestrelle con differenti
pannelli di vetro colorato retroilluminati da delle candele,
quest’ultime collegate mediante una carrucola a un tasto
16Capitolo 1
-Potenzialità estetiche di un dispositivo-
specifico dello stesso clavicembalo. La successiva evoluzione
di tale strumento si ottiene più di un secolo dopo con l’organo
a colore di Wallace Rimington del 1895, che riduceva la cassa
da 6 a 3 metri, grazie alla recente scoperta dell’elettricità,
introducendo così un sistema di retroilluminazione ad arco
elettrico in sostituzione delle candele.
Un’altra figura importante nel settore fu Aleksandr Skrjabin
,che partendo dagli studi di Castel, nel 1915 definisce un
primo standard della sinestesia tra suono e immagine con la
“Chromola” (tastiera per luce), nella quale il sistema notale
veniva replicato con un corrispondente sistema cromatico
che durante gli spettacoli necessitava anch’esso di una vera e
propria partitura come per quella musicale. I suoi spettacoli
erano caratterizzati da delle proiezioni su schermi giganti di
6mx10m sospesi sopra l’orchestra con la particolare richiesta
al pubblico di vestirsi di bianco affinché la luce riflessa dagli
schermi potesse insinuarsi nella folla inglobandola nello
spettacolo.
da sinitra a destra
Wallace Rimington
Organo a colore, 1895
Louis-Bertrand Castel
Clavicembalo oculare,
in alto da sinistra a destra
Aleksandr Skrjabin
Esempio di partitura visuale
per Chromola
Otolab
Partitura visuale per
“Quaretto.swf” , 2001
Louis-Bertrand Castel
L’optique des couleurs”, studio sulla
sinstesia suono-colore, 1740
17Capitolo 1
La scoperta dell’elettricità e lo sviluppo dell’industria
meccanica, hanno portato nel 1920 ad altre due invenzioni
degne di nota in materia di musica a colori quali il “Clavilux”
di Thomas Wilfred e il “Piano optofonico” di Vladimir Baranoff
Rossinè. Entrambi seguono il principio della musica a colori,
ma in dimensioni ridottissime grazie all’utilizzo di lenti per
modellare un unico fascio di luce neutra a cui viene aggiunto
il colore tramite dischi di vetro dipinti a mano che ruotando in
continuazione creano pattern di luce. Caratteristica distintiva
per il primo è la versione automatizzata, prodotta in box
speciali contenenti una musica predefinita che produceva la
relativa proiezione visuale, una sorta di antenato di Windows
media player1, mentre il secondo si distinse per il sistema di
controllo effettuato tramite celle fotoelettriche direttamente
collegate ad ogni singolo oscillatore del pianoforte che
regolavano intensità e filtri colore delle proiezioni luminose.
Questo sistema dei dischi trasparenti retroilluminati è stato
recentemente ripreso dalla performance audiovisiva “Circo
ipnotico” di Otlab, che ha brevettato il proprio strumento
con il nome di “Pepposcopio”.
1 Windows media player è un programma software sviluppato da Microsoft per riprodurre file multimediali audio e video, dotato di un generatore grafico interattivo, interfacciato con la traccia audio in esecuzione.
Thomas Wilfred
Clavilux, 1920
Vladimir Baranoff
Piano optofonico, 1920
18Capitolo 1
Otolab
Circo ipnotico
live media performance, 2008
Pepposcopio
Il pepposcopio (dall’autore Peppolasagna), consiste in un
disco trasparente retroilluminato da quattro batterie di led
RGB programmabili. La performance si ottiene dipingendo
direttamente sulla superficie del disco, oppure applicando
diverse maschere di cartoncino nero che muodulano il
flusso luminoso giocando sui tempi di rotazione anch’essi
programmabili.
19Capitolo 1
Analizzando dunque l’interaction design come pratica e
studio affine a diverse discipline, tra cui arte e architettura,
viene spontaneo sottolineare quello che è stato il prezioso
contributo della Bauhaus2, in merito all’approccio progettuale
e alla capacità di riunire arte e tecnica al servizio della
società. L’eredità permanente che ha lasciato la scuola e che
anche attualmente influenza l’insegnamento, soprattutto
dell’industrial design, sono le innovazioni didattiche.
L’organizzazione dei corsi subì molte modifiche durante la vita
della scuola, ma alcuni aspetti sono peculiari e universalmente
collegati al Bauhaus. Inizialmente, uno dei principali obiettivi
della scuola fu di unificare arte, artigianato e tecnologia,
perciò da questa finalità, possiamo dire che presso il Bauhaus
2 Letteralmente, “casa delle costruzioni”, fondata da Walter Gropius a Weimar nel 1919, dalla fusione della Scuola Granducale di Arti Plastiche (Accademia di Belle arti) e della Kunstgewerbeschule (Scuola di artigianato artistico). Questa origine esemplifica il programma della nuova scuola che vuol riunire arte applicata e architettura.
Bauhaus
veduta della sede di Dessau, 1928
20Capitolo 1
assistiamo alla nascita della disciplina del design intesa
come unione di tecnica e arte, uno dei concetti principali
dell’ideologia gropiusiana. A tal proposito vennero chiamati
come docenti fondatori artisti del calibro di Vasilij Kandinskij
e Paul Klee e inoltre, veniva addirittura prevista una doppia
direzione per quanto riguarda i laboratori che dovevano
essere diretti da un artista e da un maestro artigiano. Un’altra
innovazione importante fu il Vorkurs cioè il corso preliminare:
tale attività didattica, svolta prima da Itten (che insegnava
a liberare l’energia creativa e a indirizzarla verso la meta
di una forma energetica e gestuale) e poi da Moholy-Nagy,
corrisponde al moderno corso di basic design ed è tuttora
uno dei corsi fondamentali in molte scuole di architettura
e industrial design nel mondo. Lo studente doveva seguire
un corso preliminare di sei mesi, durante i quali studiava
le caratteristiche dei materiali, dei colori, delle forme
naturali e composizioni geometriche, ma anche le leggi della
percezione visiva. Ne seguiva la seconda fase, che durava
tre anni, consisteva in attività di laboratorio (falegnameria,
metalli, tessitura, stamperia, scultura, ceramica) dove si
sperimentavano le caratteristiche tecniche e di lavorazione
dei materiali, di conseguenza la terza fase consisteva in
un tirocinio in cantieri edili e prevedeva lo studio della
progettazione e della costruzione architettonica. Non c’era
insegnamento di storia nella scuola, perché si supponeva
che tutto venisse disegnato e creato come se fosse la prima
volta, piuttosto che pensando ai precedenti: la macchina
veniva considerata un elemento positivo e quindi il design
industriale e del prodotto ne erano componenti importanti.
21Capitolo 1
Tra i vari studi praticati durante gli anni di attività
della Bauhaus, di particolare interesse per questa ricerca,
risultano gli esperimenti effettuati sull’utilizzo della luce
come strumento di comunicazione, praticati sulla base del
concetto delle possibilità estetiche di un dispositivo. La luce
fu, peraltro, l’elemento principale dello sviluppo dell’arte
moderna, quindi di tutte le avanguardie, a partire dal
contributo essenziale che diede l’impressionismo nella pittura
con un utilizzo della luce in forma autonoma, indipendente
dalla rappresentazione dell’oggetto, per farsi portavoce di
un’espressione artistica personale. L’interesse della Bauhaus
in quest’ambito nasce proprio da questa problematica, con
l’obbiettivo finale di creare, attraverso un innovativo uso
della luce, un genere artistico più completo che forte di
un’elevata azione psico-fisica, riesca a rendere in movimenti
reali quelle forme che nei dipinti creano, attraverso i loro
reciproci rapporti, l’illusione di movimenti e tensioni.
I primi esperimenti della Bauhaus, furono eseguiti a Weimar
nell’estate del 1922, in seguito a delle conversazioni tenute
tra il maestro artigiano Josef Hartwing3 con gli assistenti Kurt
Schwertdfeger e Ludwig Hirschfeld-Mack, dando vita negli
anni successivi a delle vere e proprie tournee che toccarono
numerose località4. L’idea fondamentale ed il procedimento
che stava alla base dei “giochi di luce con riflettori” erano
molto semplici: diverse sagome, precedentemente preparate,
venivano spostate avanti e indietro, a volte sovrapposte davanti
ad un riflettore, dunque proiettate sulla faccia posteriore di un
telo di lino trasparente cosicché sulla faccia anteriore, rivolta
verso il pubblico, apparivano una serie di figure astratte in
movimento. Attraverso schermature applicate sulle sorgenti
3 Josef Hartwig fu membro del Bauhaus dal 1921 al 1925 in qualità di maestro artigiano responsabile per la parte tecnica dell’officina di scultura.
4 Tra le varie apparizioni, da segnalare: Maggio 1924 “matinée cinematografica” alla Volksbühne di Berlino; Settembre 1924 “festival della musica e teatro” di Vienna.
22Capitolo 1
Ludwig Hirschfeld-Mack
Cabina di proiezione dei giochi di luce, 1924 23Capitolo 1
Ludwig Hirschfeld-Mack
Cabina di proiezione dei giochi di luce, 1924
di luce e l’inserimento di resistenze era possibile controllare
l’intensità luminosa sia delle singole forme che dei complessi
di forme, dove l’improvvisa comparsa e scomparsa delle varie
parti della composizione veniva regolata tramite interruttori.
Gli elementi formali di figurazione erano prevalentemente il
punto colorato in movimento, la linea e la superficie. Ognuno
di questi poteva essere mosso con qualsiasi velocità ed in
qualsiasi direzione, ingrandito o rimpicciolito, sdoppiato o
addirittura sovrapposto ad altri elementi, formandone così
di terzi dalle tonalità cromatiche frutto della mescolanza
di due o più sorgenti luminose colorate5. Questi giochi
di luce furono studiati e brevettati per accompagnare
performance musicali tramite un rapporto simbiotico tra
le due forme di comunicazione, cosicché l’articolazione
temporale veniva resa più chiaramente percepibile grazie
al ritmo acustico mentre i vari fenomeni ottici venivano
5 La struttura era composta da campi mobili di luce gialla, rossa, verde e azzurra, con una serie di gradazioni organiche che vanno dalla oscurità alla luce più viva.
24Capitolo 1
sottolineati ed esaltati dalla musica. Si rese necessaria così,
una specie di partitura per i tecnici delle luci che, come in
un’orchestra, seguivano istruzioni scritte per regolare azioni
che diventano indispensabili in un determinato tempo e in
un determinato luogo nel corso della rappresentazione. Un
ulteriore peculiarità di queste sperimentazioni era proprio la
rappresentazione, in quanto le partiture, ovvero i movimenti
delle sagome e le regolazioni delle luci, non erano fissati
una volta per tutte meccanicamente, bensì ricreati ex novo
ad ogni nuova rappresentazione, lasciando ampio margine
all’improvvisazione, pertanto si possono definire come
precursori delle odierne performance di vjing.
Un altro campo fertile sulla sperimentazione artistica della
luce nella Bauhaus, fu la fotografia, che seppur introdotta
come insegnamento solo dopo il 29, vede molto prima come
suo maggiore esponente Lazlo Moholy Nagy, alla cui base degli
insegnamenti vige il concetto di creatività posta al servizio
della performance. I suoi esperimenti, risalgono già all’inizio
degli anni venti, concentrandosi proprio sulla fotografia al
Ludwig Hirschfeld-Mack
Partitura sonora e visuale per uno spettacolo di luce, 1924
25Capitolo 1
fine di liberarla dalla sua mera rappresentazione meccanica,
spinto da un desiderio di una figurazione visiva autonoma,
priva delle limitazioni della corrispondenza illustrativa col
reale, come nella pittura delle avanguardie. Tuttavia, una
nuova tecnica deve creare una nuova forma adeguata ai propri
mezzi: la fotografia è essenzialmente una composizione di
valori luministici, pertanto nella fotografia di Moholy-Nagy,
i mezzi tecnico-meccanici devono incidere su ciò che sarà
la composizione della figurazione, allo scopo di generare
effetti espressivi ed astratti. Riflettori, proiettori, smalti,
gelatine ed altri materiali simili consentono un’azione sulla
luce priva di strutturazione pigmentale, quindi immateriale,
producendo un arricchimento della visone (l’artista la
chiamerà “Nuova visione”), che non si avvede di alcun
riferimento a canoni universali o storici. Nella ricerca che
Moholy-Nagy applica alla fotografia, è di particolare rilievo
l’utilizzo della tecnica off-camera6, i fotomontaggi realizzati
direttamente in camera oscura senza alcun uso del collage,
tipico quest’ultimo, della precedente ricerca dadaista e di
altre correnti artistiche. Attraverso l’utilizzo di modulatori
di luce ed altri tecnicismi come le esposizioni multiple, le
sovrapposizioni di stampa, il negativo, l’artista riesce a far
condividere immagini fotografiche con elementi grafici e
geometrici, dando luogo a delle composizioni complesse ed
espressive.
Forte di questa “nuova visione”, negli anni 26-27, Moholy-
Nagy portò in giro per l’Europa un suo spettacolo con un
organo a colore riadattato per le proiezioni filmiche a cui
collaborò un altro artista del cinema astratto quale Osca
Fishinger, divenuto famoso per ricreare immagini astratte
filmiche di grande complessità.
6 Per fotografia “off-camera”, si intende la fotografia che viene sottoposta ad elaborazione e composizione creativa nel passaggio in camera oscura, dunque a camera spenta.
Lazlo Moholy-Nagy
Fotogramma, 1923
Fotogramma, 1923
26Capitolo 1
da sinistra a destra
Marie Ellen Bute
Synchronomy n$, 1939
A color rapshody, 1951
Un’ulteriore figura proveniente dal cinema astratto che ha
sperimentato nuove forme artistiche dallo studio di dispositivi
tecnologici, fu Mary Ellen Bute, la quale, concentrandosi
nel suo caso su tecnologie scientifiche, collaborò con molti
scienziati, tra i quali Joseph Schillinger, autore di una teoria
sulla struttura musicale come prodotto di una serie di formule
matematiche, quindi appropriatasi di tale principio, riuscì
negli anni 50 a ricreare dei pattern grafici attraverso la diretta
manipolazione di un oscilloscopio7.
Analogamente alla ricerca di Mary Ellen Bute, un nome degno
di nota è Mikomikona, gruppo artistico le cui performance
audiovisive sono frutto della proiezione di lavagne luminose
dotate di dispositivi analogici autocostruiti che leggono
e trasformano in segnali audio le
stratificazioni di composizioni optical8
disegnate su fogli lucidi. Questo viene
reso possibile secondo il fenomeno
conosciuto come sintesi ottica del
suono per la quale ogni suono è
rappresentabile secondo una forma
precisa forma d’onda determinata.
7 L’oscilloscopio è uno strumento di misura elettronico che consente di visualizzare graficamente l’andameto temporale dei segnali elettrici
8 da optical art, composizioni di immagini che creano illusioni ottiche di movimento
Mikomikona
Faurier tranzformation I+II, 2003
27Capitolo 1
Concludendo quindi sul rapporto tra arte e scienza,
troviamo una serie di artisti contemporanei che hanno
portato avanti questa ricerca audiovisiva, analizzando
il comportamento dei materiali e di specifici fenomeni
naturali, nel tentativo di associarne o addirittura produrre un
evento audiovisivo. Tra questi artisti si distinguono Carsten
Nicolai, autore di diverse installazione e/o oggetti sonori e
audiovisivi, il gruppo Semiconductor, che si appoggia alla
NASA9 per la ricezione di fenomeni sonori e uditivi particolari
provenienti dallo spazio, giocando quindi sulle loro possibili
visualizzazioni, per finire con Evelina Domnitch e Dimitri
Gelfand, i cui progetti sono caratterizzati da uno studio
estetico di fenomeni chimico-fisici, dunque dei veri e propri
esperimenti scientifici, solitamente legati a fattori sonori,
sfruttati per costruire la loro performance audiovisiva, come
nell’opera “Camera lucida” del 2004, che mette in evidenza
la correlazione audiovisiva legata al fenomeno della
sonoluminescenza10, inviando un suono all’interno di una
camera ad alta pressione satura di un gas raro, provocando
così delle microesplosioni luminose.
9 National Areonautics and Space Administration, è l’agenzia governativa responsabile per il programma spaziale degli Stati Uniti d’America.
10 La sonoluminescenza è un processo fisico in cui l’energia sonora viee trasformata in luce.
Evelina Domnitch e Dimitri Gelfand
strumentazione per la performance Camera lucida28Capitolo 1
Carsten Nicolai
Mikro makro, 1996 - color Polar, 2000 - Spray, 2004
Installazioni audio e video interattive
Semiconductor
Nanowebbers, 2001 - Brillant noise, 2006
Live media performance
Evelina Domnitch e Dimitri Gelfand
Camera lucida, 2004 - 10.000 Peackock acid, 2008
Live media performance
29Capitolo 1
RISORSE
HANS M. WINGLER, Il Bauhaus, traduzione italiana a cura di Libero Sosio, Feltrinelli, Milano 1987
Dispense workshop OTOLAB, Marzo 2010
http://www.zuviel.tv/mikomikona.htmlhttp://www.carstennicolai.de/http://portablepalace.com/
31Capitolo 1
Secondo il connubio tra arte e tecnica, una breve
parentesi merita di essere aperta riguardo ad una delle
tendenze dell’arte contemporanea negli anni successivi alla
seconda guerra mondiale, per quanto riguarda l’ingresso
della cinetica nelle varie discipline artistiche. Lo sviluppo
della società moderna industriale e consumista, si è riflessa
in un’inevitabile interdipendenza tra arte ed industria,
che ha generato una nuova “arte materica” definita dalla
presenza di materiali insoliti (lamiere di ferro, cocci di vetro,
fili d’acciaio, colla), talvolta ignoti alle correnti artistiche
precedenti (plexiglas, materie plastiche). La caratteristica
comune nell’utilizzo di questi materiali provenienti
dall’industria, si riscontra prevalentemente nella scelta
di materie allo stato grezzo, piuttosto che lavorate, dove
Capitolo 1 32
-Cinetica e materia-
trovano ampio spazio addirittura i rifiuti. Questo nuovo
approccio dell’arte, trova campo fertile nella scultura, data
la particolare natura tridimensionale di quest’arte, dove
recuperando il concetto del ready-made1, introdotto dai
dadaisti, si sviluppa una scuola basata sul detrito, ovvero
sull’assemblaggio di pezzi recuperati da organismi meccanici
preesistenti attraverso la tecnica della saldatura, pratica
comunissima all’industria meccanica. “Ruota di bicicletta”
(1913) di Duchamp, vede una ruota di bicicletta con la sua
forcella inserita alla rovescia su uno sgabello, con un invito
generico a toccarla. È la prima opera d’arte a far uso diretto
del movimento fisico per esprimere il suo messaggio.
Sul concetto di movimento come mezzo di espressione
artistica, si è interessato Jean Tinguely, autore di macchinette
fantasiose, assemblate con materiali di varia natura, quasi
sempre rifiuti o pezzi di macchine in disuso. La sua arte
è basata proprio sulla ruota e sul movimento rotatorio in
un’eterna ripetizione e cambiamento: i meccanismi da lui
creati sono deliberatamente difettosi, gli accoppiamenti
mancano di precisione, i movimenti si bloccano e ripartono
seguendo le regole del caso di un disordine meccanico.
1 Il termine ready-made (traducibile come “instantaneo”, “detto-fatto”...) è utilizzato per descrivere un’opera d’arte ottenuta da oggetti per lo più appartenenti alla realtà quotidiana. L’inventore del ready-made fu il dadaista Marcel Duchamp nei primi decenni del Novecento ed ancora oggi è una pratica molto usata (nelle sue varie evoluzioni) nell’arte contemporanea.
33Capitolo 1
Tra le sue innumerevoli sculture in movimento, mi è
sembrato opportuno citare un’opera di recente fattura, in
cui Tinguely, per la prima ed unica volta inserisce il video,
quindi una tecnologia non meccanica, nella composizione
dell’opera. La scultura consiste nello smantellamento di
un’autovettura della Formula 1, quindi riassemblata in
simbiosi con una struttura a grandi braccia meccaniche che
si muovono in direzioni diverse, che a loro volta reggono
alcuni proiettori i quali rimandano immagini filmiche alle
pareti intorno. Le riprese, sono relative ad un pit-stop (da
cui il nome dell’opera) della vettura Renault di Alain Prost,
durante la corsa all’autodromo di Zeltweg in Austria del 1983.
Le pellicole sono state manipolate mediante sovrimpressione
e rallentamenti, al fine di smorzare la tensione di un’azione
frenetica e pericolosa, per sottolinearne la precisione dei
movimenti. Come per molte delle opere di Tinguely, è presente
un pulsante di azionamento dell’intero meccanismo, lasciato
ad uso discrezionale da parte del pubblico, introducendo il
fattore interattivo, seppur a livello basico.
Jean Tinguely
Tinguely museum
Basilea
nella pagina successiva
Jean Tinguely
Pit stop, 1983
34Capitolo 1
35Capitolo 1
Julien Maire
Diapositives , 1998
Live media performance
Julien Maire
Exploding camera, 2007
Live media performance
36Capitolo 1
Una sperimentazione meccanica analoga a quella di Tinguely,
incentrata però non sulla materia stessa, ma sull’immagine e sul
video, si trova nelle opere di Julien Maire , artista contemporanea,
che nei primi anni del 2000 sperimenta una decostruzione e
ricomposizione di media analogici tradizionali (proiettori, televisori,
diapositive, filtri), utilizzandoli all’inerno di complesse strutture
elettriche meccanicizzate spesso attivate in tempo reale dall’artista
come per la performance “Diapositives” del 1998, dove animava
delle diapositive tramite teatrini meccanici che giocavano su layer
sovrapposti all’immagine statica.
Julien Maire
Demi pas, 2002
Live media performance
37Capitolo 1
39Capitolo 1
RISORSE
PONTUS HULTEN, JEAN TINGUELY, Una magia più forte della morteBompiani, Milano 1987
Dispense workshop OTOLAB, Marzo 2010
http://julienmaire.ideenshop.net/
Una volta approfondite le questioni “tecnica” e “materia”,
non rimane che analizzare lo spazio, ovvero il luogo fisico
dove prende vita l’opera o la performance vera e propria.
Anche qui ci troviamo di fronte ad un argomento molto
vasto e variopinto, da cui occorre selezionare le esperienze
utili alla ricerca critica affine al progetto multimediale in
questione. Partendo proprio dal concetto di arte totale,
intesa come l’unione delle arti e delle discipline allo scopo
di essere più vicini all’armonia della natura, concetto
sviluppatosi nell’800 romantico, troviamo come maggiore
esponente di questa corrente, il compositore tedesco
Richard Wagner, il quale oltre ad essere un musicista, viene
ricordato per il suo progetto “Gesamtkunstwerk”, ovvero un
40Capitolo 1
-Lo spazio scenico-
teatro appositamente studiato per immergere lo spettatore
nell’opera. L’architettura del complesso prevedeva un palco
estremamente profondo al fine di sollecitare una visione
fortemente tridimensionale, l’orchestra, invisibile allo
spettatore, veniva posizionata all’interno di un tunnel sonoro
in modo che funzionasse da cassa di risonanza, quindi una
tribuna semicircolare era in grado di produrre un’acustica
perfetta ed immersiva a prescindere dalla posizione dello
spettatore. Questa concezione di opera teatrale intesa come
insieme di eventi musicali, visivi e scenografici, introduce per
la prima volta nella storia il concetto che oggi conosciamo
come multimedialità, che ha influenzato fortemente molte
correnti artistiche del secolo a venire.
Richard Wagner
Richard Wagner
Gesamtkuntwerk, 1850
41Capitolo 1
Giacomo Balla
Scenografia di Feu d’artifice
Balletti russi, 1917
Il teatro del Novecento ci viene incontro in questo senso,
attraverso varie sperimentazioni applicate alla scenografia
che vedono l’intrusione dei nuovi media come parte portante
della progettazione, a partire dal contributo delle avanguardie
ed il conseguente ritorno di ispirazione dal teatro alle stesse
avanguardie: nasce così il concetto di “teatro totale” che
ha tra le sue finalità una maggiore compartecipazione del
pubblico allo spettacolo-evento dove anche la scenografia si
riscopre protagonista tramite l’apporto di effetti cinetico-
visuali. Un primo innovativo contributo, emerge dall’estetica
promossa dal Futurismo e dai Balletti russi, con importanti
artisti-scenografi come Balla, Depero e Bakst, per i quali
la scena si trasforma in un processo dinamico sullo stretto
coordinamento tra colore, suono e movimento, giungendo alla
creazione di uno spazio scenico “polidimensionale”, abolendo
le tradizionali forme orizzontale e cubica del palcoscenico e
dell’arcoscenico1.
1 Arcoscenico, o boccascena è, nel teatro, lo spazio, in altezza e larghezza, che delimita il palcoscenico nei confronti della platea, ed è formato dall’insieme degli elementi che incorniciano la scena.
nella pagina successiva
Luigi Russolo
Intonarumori, 1913
Intonarumori
Famiglia di strumenti musicali
composta da generatori
acustici che permettevano
di controllare la dinamica, il
volume e la lunghezza d’onda
di diversi tipi di suono..
42Capitolo 1
Leon Bakst, da parte sua, ebbe una rilevante
impronta sul campo della moda, disegnando i
costumi per i Balletti russi, i cui richiami esotici,
influenzarono le successive correnti artistiche
dei Fauves e dell’Art déco, tuttavia, restando in
materia scenografica, Bakst viene ricordato per
la sua profonda conoscenza delle combinazioni
cromatiche e per un eccessivo uso del colore, il
quale assumeva un valore altamente simbolico in
ogni sua rappresentazione, concependo dunque
la scena in tre dimensioni,
dilatandola attraverso simmetrie
occulte, ottica spaziale e
profondità della scena, dentro
cui lo spettatore doveva entrare
in una dimensione onirica.
Leon Bakst
scena di Sheherazade, Opera di Parigi, 1910
Leon Bakst
bozzetto per la scenografia di Sheherazade,
Opera di Parigi, 1910
43Capitolo 1
Walter Gropius
pianta per il progetto
“Taeatro totale “, 1927
Una ricerca analoga a quella del Futurismo, si ritrova
qualche anno più tardi nella scuola tedesca della Bauhaus,
con i contributi di Gropius e Schlemmer. Il primo sviluppò
un progetto architettonico (mai realizzato) di teatro totale
sottoforma di teatro-macchina, dove la sua particolare
forma ovale a conchiglia, permetteva una rotazione di 180
del palcoscenico e di parte della platea, consentendo uno
scambio agile tra le due forme storiche del palcoscenico,
ovvero la forma greca, con il palco al centro della platea e
la forma classica, con il palco in opposizione alla platea. Il
fine di questo progetto era di incentivare la partecipazione
dello spettatore allo spettacolo, destandolo dalla sua apatia
intellettuale manifestata durante la visione. I tentativi della
Bauhaus di stabilire un collegamento tra l’elemento artistico
e quello tecnico, si diffusero quindi anche nel settore del
teatro, in particolare nella danza, dove si distinse l’operato
di Oskar Schlemmer per i suoi peculiari costumi e scenografie
che prendono ispirazione dall’estetica futurista.
Il Balletto, diviene così, un balletto meccanizzato;
L’uomo non è più al centro dell’attenzione, ma immerso tra
44Capitolo 1
gli altri elementi dello spazio teatrale confondendosi tra
le scenografie, quindi le stesse scenografie compenetrano
la figura umana diventandone una parte effettiva, in
uno spettacolo dove tutti i mezzi fisici e spirituali sono a
disposizione della creazione artistica. Anche la musica subisce
quest’azione meccanico-sensibile grazie alla precedente
rivoluzione del Futurismo che introdusse i rumori come mezzo
espressivo, quindi musicale, completando le improbabili
figurazioni di Schlemmer attraverso un’ampia gamma di
sonorità meccaniche. Sfondi neri, infine, accompagnano
e sottolineano le azioni dei ballerini che si fondono con le
forme meccaniche al fine di esaltare e vivere lo spazio con il
corpo, rendendolo un’unità inscindibile dal contesto. Oskar Schlemmer
Danza spaziale, 1927
Oskar Schlemmer
Danza delle verghe, 1927Oskar Schlemmer
Treppenwitz, 1926
45Capitolo 1
I fondamentali impulsi di Futurismo e Bauhaus, spinsero
la scenografia moderna verso l’uso di materiali desueti e
successivamente all’abbandono dello spazio tradizionale del
teatro a favore di altri luoghi, come fabbriche in disuso o
esposizioni internazionali per esempio. Queste tendenze
portarono il teatro e non solo a un linguaggio contemporaneo
costantemente in aggiornamento, quindi alla comparsa di
nuove tecnologie a favore della creazione artistica (neon,
plastica, video, computer e laser). Si iniziò quindi ad indagare
lo spazio come strumento, come per il “cinema espanso”,
figlio del cinema sperimentale astratto, ma caratterizzato
da una forte componente spaziale. Un chiaro esempio di
cinema espanso furono i “Vortex concert” di Jordan Belson
(videoartista) e Henry Jacobs (compositore) del 1957,
concerti di musica elettronica distribuita su 50 altoparlanti,
accompagnati da proiezioni non più su un supporto di tipo
schermo, ma direttamente sulla cupola di un planetario
grazie all’utilizzo 30 proiettori, con il risultato globale di
un’immerisività totale da parte dello spettatore, anticipando
di gran lunga le moderne installazioni di videoambienti.
Contemporaneamente ai Vortex concert, sempre indagando
le possibilità immersive dello spazio architettonico, troviamo
due esperienze artistiche di due architetti famosissimi
46Capitolo 1
Jordan Belson
Henry Jacobs
Vortex concert, 1957
all’epoca quali Le Courbesier e Van Der Beek, l primo con
il progetto del padiglione Philips per la expo di Bruxelles
del 1958 dove, con la collaborazione di Edgar Varese e
Iannis Xenakis, fu costruita una struttura complessa in cui
era disposto un sistema di 425 altoparlanti attraverso un
sistema di 11 canali, mentre al secondo si deve il progetto
“Movie Drome” del 1963, in cui l’artista ebbe l’idea di
creare un teatro sferico dove le persone potessero
sdraiarsi e godere di suoni e immagini tutt’attorno.
Le Courbesier
Padiglione Philips, 1958
Stan Van Der Beek
Moviedrome , 1963
47Capitolo 1
Josef Svoboda,
disegno per Polyécran , 1958 Un’ulteriore figura importante nella sperimentazione
“scenotecnica”, è sicuramente Josef Svoboda, autore
di oltre 700 scenografie, nonché di alcune invenzioni
tecnologiche tra cui i proiettori per il controluce, chiamati
anche proiettori Svoboda. La ricerca dell’artista ceco, si
caratterizza da un uso virtuosistico della luce e di impianti
audiovisivi, arricchiti da laser e specchi per accentuarne
l’effetto. Un esempio importante è il “Polyécran”, un
sistema di multischermo presentato per la prima volta alla
Expo di Bruxelles del 1958, dove l’idea creativa maturata
da Svoboda consisteva nella creazione di uno spazio per
mezzo di proiezioni cinematografiche su una serie di schermi
collocati sul palcoscenico: otto schermi per la proiezione in
forma trapezoidale e quadrata situati in uno spazio nero in
uno spettacolo senza attori che si compone esclusivamente
di musica registrata e di immagini che provengono da sette
proiettori cinematografici ed otto diaproiettori2. Tale
soluzione tecnica prevede inoltre la sincronizzazione dei
media attraverso la messa a punto di un circuito elettronico
con una memoria che dirigesse tutte le funzioni.3
2 Proiettori per dipositive.
3 Il circuito elettronico, fu realizzato da Miroslav Pflug.
48Capitolo 1
Il passo successivo dell’applicazione multimediale di
Svoboda alle arti scenografiche, lo realizza per l’allestimento
di “Intolleranza” di Luigi Nono, presentato a Venezia nel
1961, che però viene censurato a causa dei suoi contenuti
dichiaratamente politici, pertanto verrà ripresentato in
versione integrale all’Opera Group di Boston nel 1965.
La particolarità di questo allestimento, oltre alla ormai
consueta presenza di sistemi di proiezione, eidofori4 in
questo caso, risiede nel tentativo di costruire lo spettacolo
come un “happening”5 controllato tramite una regia. Sul
palcoscenico si svolge l’azione principale, mentre il coro,
realizza la propria performance in uno studio televisivo a
10km dal teatro, messo a disposizione per la diretta da
trasmettere sugli eidofori. Un ulteriore studio viene allestito
4 L’eidoforo è un apparecchio per proiezioni televisive dal vivo su grandi schermi
5 L’happening è una forma di teatro in cui diversi elementi a-logici, compresa l’azione scenica priva di matrice, sono montati deliberatamente insieme ed organizzati in una struttura a compartimenti.
Josef Svoboda
Polyécran , 1958
49Capitolo 1
Josef Svoboda
schema progettuale per
Intolleranza, 1967
all’interno del teatro per quanto riguarda la produzione
grafica, quindi in tutti gli ambienti vengono posizionati
monitor di preview che consentono a ciascun partecipante
di guardare la performance degli altri in tempo reale. Tutte
le immagini sono controllate da una cabina di regia in cui
vengono montate in tempo reale o registrate per essere poi
proiettate al momento opportuno. La consulenza tecnica è
affidata al MIT6, lo schema progettuale, prevede la disposizione
di tre grandi schermi, due per proiezione degli eidofori e
uno per le proiezioni cinematografiche, mentre altri schermi
più piccoli vengono posizionati in alto per la proiezione di
diapositive. Il risultato è un collage di diverse fonti video
montate su un flusso sonoro, in un contesto spettacolare,
esattamente come accade oggi per le performance di vjing.
Nello stesso anno, per lo spettacolo “La creazione del
mondo” di Radok, Svoboda ritorna sul sistema Polyecran,
ma con la variante dell’uso esclusivo di diapositive, da cui il
nome “Polydiaecran”. Tale sistema è composto da 112 moduli
quadrati costituiti da un tubo chiuso da uno schermo, ogni
modulo è servito da due diaproiettori, che possono funzionare
in dissolvenza, per un totale di 240 caricatori di diapositive che
consentono, in retroproiezione, di far muovere l’immagine da
un lato all’altro dello schermo modulare in sequenza. In ogni
quadrato si possono effettuare 160 cambiamenti d’immagine
ed ogni tubo giace su una slitta che consente di avanzare
o retrocedere di un metro, offrendo l’effetto di continua
variazione della superficie del maxi-schermo modulare fino
a due metri di profondità. Lo spettacolo durava 10 minuti e
considerando l’intera struttura, si aveva a che fare con una
quantità di immagini impressionante per l’epoca, controllate
da un dispositivo analogico per la gestione di oltre nove
milioni di inputs.
6 Massachusetts Institute of Technology (MIT), è l’instituto di tecnologia applicata della Harvard University.
50Capitolo 1
Va fatta infine menzione, dello spettacolo
multimediale audiovisivo “Polyvision”, allestito da Svoboda
per l’Expo del 1967 a Montreal, con proiezioni dirette su
forme tridimensionali (cubi, prismi, sfere e cilindri), disposte
in uno spazio scenico di 30 metri di larghezza e capaci di
ricevere proiezioni su tre facce, o la possibilità di ruotare
sul proprio asse per quanto riguarda le forme sferiche e
cilindriche. In particolare, all’interno dei cubi sono presenti
tre diaproiettori per le rispettive tre facce, mentre alla
faccia rivolta verso il pubblico, sono destinate le proiezioni
cinematografiche. Ogni elemento presente sulla scena, ha la
possibilità di muoversi lungo gli assi verticale ed orizzontale,
mentre l’intero spazio scenico è tagliato da due specchi
semitrasparenti disposti diagonalmente, per offrire illusioni
ottiche e giochi di riflessione tra gli elementi scenici e la
parete di fondo.
Josef Svoboda
Intolleranza , 1967
da sinistra a destra
Josef Svoboda
Polyvision, 1967
La creazione del mondo, 1967
51Capitolo 1
RISORSE
HANS M. WINGLER, Il Bauhaus traduzione italiana a cura di Libero Sosio, Feltrinelli, Milano 1987
FRANCO PERELLI, Storia della scenografia Carocci, Urbino 2006
JOSEF SVOBODA, I segreti dello spazio teatrale Ubulibri, Milano 1997
Dispense workshop OTOLAB, Marzo 2010
53Capitolo 1
55Capitolo 2
2. Il video-Tracce-
Fotografia, cinema e televisione rappresentano tre momenti
di una rivoluzione radicale nel mondo della comunicazione
visiva. Tutte e tre, a partire dalla fotografia, nascono dalla
ricerca tecnologica protesa a costruire macchine capaci di
fornire una riproduzione del visibile prospetticamente fedele
e puntuale rispetto a quella reale, tuttavia sviluppando
autonomi modelli linguistici di comunicazione per ciascun
dispositivo.
L’immagine in movimento dunque come tale diventa
protagonista, soprattutto con l’avvento del cinema che
seppur considerata un’arte a sé, non può sottrarsi dalle
contaminazioni delle più antiche e collaudate arti visuali:
tale relazione si sviluppa in due direzioni. Da una parte vi
56Capitolo 2
-Immagini in movimento-
è un gioco di influenze reciproche tra particolari correnti
artistiche verso il cinema (da qui i vari cinema espressionista,
futurista, cubista, surrealista, ecc.), dall’altra invece il
cinema come ricerca visuale, dove un cinema sperimentale
esplora continuamente le possibilità del nuovo mezzo
svincolandolo dalla soggezione al classico codice narrativo. Il
cinema narrativo classico, pone al centro del suo linguaggio il
montaggio, strumento attraverso il quale produrre continuità
spazio-temporale sulla quale si sviluppa la narrazione
secondo la concatenazione di cause ed effetti, quindi è
proprio su questa struttura che opera la ricerca del cinema
sperimentale nel tentativo di sovvertirne le convenzioni.
I primi esperimenti artistici in campo cinematografico
risalgono già alle origini, con gli esordi di Gorge Méliès,
riconosciuto come il secondo padre del cinema (dopo i Fratelli
Lumière), viene ricordato in particolare come inventore del
montaggio e degli effetti speciali, grazie all’uso di abili trucchi
tecnico-scenici1 in qualità di illusionista ancor prima che
regista per la produzione del primo cinema di finzione (che
filma mondi diversi dalla realtà). Tuttavia la sperimentazione
di maggior interesse per questo testo risiede nel sistema
narrativo, da lui scomposto nei cosiddetti “quadri”, ovvero
scene che si svolgono all’interno di una singola inquadratura
fissa che comprende un intero episodio distaccato e senza
legami spazio-temporali con gli altri, dove i vari episodi,
erano legati tra loro non da una continuità di azione, ma da
una continuità di soggetto.
Anche dal punto di vista tecnico si sperimentano soluzioni
lontane dalle prospettive classiche, come nel caso di Man
Ray in “Emak Bakia” del 1926, dove sono raccolti frammenti
di realtà di contesti metropolitani e bucolici, che vengono
alterati in camera di sviluppo e in sala montaggio mescolandosi
con immagini astratte in movimento, sviluppate tramite la
1 Tra le varie tecniche utilizzate per la prima volta da Méliès, sono da citare, la dissolvenza, l’utilizzo del colore, dipinto direttamente sulla pellicola e la esposizione multipla, che permetteva la sovrapposizione di diverse immagini in movimento nella stessa inquadratura.
George Méliès
L’homme à la tête en cahoutchouc
1901
Man Ray
fotogrammi di
Emak Bakia, 1926
57Capitolo 2
tecnica delle rayographs2 o della solarizzazione3, alla ricerca
di un effetto di prevalsa sensoriale sulla visione dell’opera
da parte dello spettatore. Il cinema astratto e il successivo
cinema diretto hanno prodotto le maggiori sperimentazioni
in questo ambito, a cominciare da Walter Ruttmann, che nel
1921 con “Opus I”, proiettava un film composto di sole forme
e colori in movimento creati grazie ad una serie di piatti
di vetro dipinti posizionati su un supporto in movimento, il
tutto ripreso da una cinepresa che rimandava la registrazione
direttamente in proiezione. Parallelamente a Ruttman, con
tecniche di realizzazione analoghe, sono famose anche le
opere di Oskar Fishinger e Hans Richter, quest’ultimo fa ente
parte del Blue Reiter dove collaborò
con Wassily Kandinsky sulla ricerca
sinestetica tra musica ed immagini.
Una particolare evoluzione del cinema
astratto si vide con il cosiddetto “cinema
diretto”, in quanto la produzione di
forme ed animazioni grafiche venivano
effettuate intervenendo direttamente
sulla pellicola senza l’utilizzo di una
cinepresa di registrazione. L’australiano
2 La rayografia consiste in una tecnica di sviluppo della pellicola, dove la carta sensibile alla luce viene impressionata poggiandovi degli oggetti con una certa pressione.
3 La solarizzazione è un’inversione tonale che si manifesta durante lo sviluppo di materiale sensibile che è stato soggetto a una sovraesposizione.
da sinistra a destra
Walter Ruttmann
Opus I, Opus II, 1921
Oskar Fischinger
Studium series, 1935
58Capitolo 2
Hans richter
Rythm 21, 1921
Len Lye, a cavallo tra gli anni 30 e 60, fu il primo esponente di
questa particolare corrente manipolando la celluloide della
pellicola tramite varie tecniche quali la pittura, il footage4,
sotto/sovraesposizione o addirittura danneggiandola tramite
graffi, incisioni o corrosioni per mezzo di acidi. Tecniche
sperimentate tra gli anni 40 e 70 anche da Norman Mc Laren,
che intervenne sulla striscia della pellicola dedicata al suono,
creando così alterazioni dell’audio che, per ovvie questioni
di struttura fisica della pellicola, risultano perfettamente
sincronizzate con gli interventi sulla parte video, ponendosi
così di fatto alle origini della musica di sintesi.
4 Film realizzato interamente o parzialmente di metraggio preesistente, riassemblato in nuovo contesto
da sinistra a destra
Mc Laren
Dots, 1940
Sinchronomy, 1965
in basso
Len Lye
A colour box, 1935
Free radicals, 1958
59Capitolo 2
Dziga Vertov
L’uomo con la macchina da presa, 1929
Tornando in ambito figurativo, questa ricerca delle
possibilità artistiche del cinematografo, trova ampio spazio a
partire dalle pratiche delle avanguardie russe, in particolare
nel lungometraggio di Dziga Vertov, “L’uomo con la macchina
da presa”, del 1929. Già i titoli di testa del film sono
significativi riguardo alle teorie cinematografiche del regista
russo, nonché profetici per le successive sperimentazioni
della videoarte:
Con questo film Vertov scompagina la grammatica
cinematografica, proponendo il cinema non solo come
strumento narrativo, ma come occhio curioso che indaga la
realtà tramite blocchi d’immagini come unità di un linguaggio
“ATTENZIONE SPETTATORI: questo film è un esperimento di comunicazione cinematografica di eventi reali senza l’ausilio di
didascalie, senza l’aiuto di una storia, senza l’ausilio del teatro. Questo lavoro sperimentale aspira alla creazione
di un linguaggio universale del cinema, basato sulla assoluta separazione dal linguaggio del teatro e della
letteratura”.
60Capitolo 2
universale, comprensibile da tutti senza la conoscenza di un
contesto specifico. Un’indagine della città in questo caso,
intesa come vita umana e meccanica e non come semplice
luogo fisico, da qui la nascita delle “clips”, ovvero brevi
riprese con ambienti e soggetti totalmente differenti senza
alcuna referenza apparente se non implicata a un abile utilizzo
del montaggio come creatore del senso, pratica utilizzata da
molti videoartisti moderni e in particolare nell’ambito Vjing.
Il primo cinema d’artista dunque non è documentaristico,
né illustrativo e né didattico, ma un oggetto da investigare
per comprenderne le possibilità poetiche. Nel 1933 Fernand
Léger immaginava un film (“24 ore”) nel quale una coppia
qualunque che fa un mestiere qualunque, viene inquisita
dal “cine occhio”5 per l’intera durata del giorno. Trent’anni
più tardi, Andy Wharol , realizza alla lettera le intenzioni
di Léger, con il film “Sleep” del 1963, che mostra le otto
ore di sonno di un uomo. Negli stessi anni, si distingue il
movimento Fluxus, gruppo dichiaratamente neo dadaista che
nasce nel 1961, il quale intende stravolgere le abitudini della
comunicazione quotidiana, sbarrando o deviando il flusso
della visione convenzionale.
5 <<qualsiasi cosa che con gli occhi del quotidiano è banale e scontata, se guardata con l’occhio del cinema e del montaggio diventa qualcosa di nuovo, straniero, che genera sorpresa e meraviglia.>>, Vertov, “Cine occhio” 1925
Andy Warhol
Sleep, 1963
61Capitolo 2
Dziga Vertov
L’uomo con la macchina da presa, 1929
Fluxus è un termine latino che significa flusso, quindi sta
ad indicare un fenomeno in continuo mutamento, che non ha
forma né luogo. Rifacendosi all’happening americano, Fluxus
teorizza un modo di fare arte che è un fluire ininterrotto
di situazioni, percezioni e molteplici esperienze estetiche e
sperimentali. La caratteristica di Fluxus è l’intedisciplinarietà
dei suoi eventi, che al suo interno possono contenere e
inglobare svariate correnti artistiche, come per esempio la
musica sperimentale, il noveau realism, la videoart, l’arte
povera, il minimalismo e l’arte concettuale. Il procedimento
che impiega questo movimento nel cinema sperimentale
consiste nel raccogliere immagini quotidiane sviluppate per
sequenze, senza obbligo di svolgimento narrativo e distorcerle
nel tempo accelerando o rallentando sino alle soglie della
percezione del movimento, producendo una temporalità
artificiale che induce ad una nuova visione. Da questo
proposito, si sviluppano tutte le successive sperimentazioni
volte alla spontaneità e simultaneità del video, dove il tempo
sarà il fattore d’indagine principale, liberando il video dai
vincoli cinematografici, aprendo così di fatto le porte alla
nascita della videoarte.
Tony Conrad
The flicker, 1966
64Capitolo 2
Un’ultima parentesi merita di essere aperta riguardo alle
sperimentazioni cinematografiche sul rapporto temporale
nella percezione delle informazioni visive. A tal proposito il
primo esperimento si deve a Tony Conrad con la sua opera
“The flicker” del 1966, in cui una serie di fotogrammi bianchi
e neri, si alternano aritmicamente per creare appunto il
cosiddetto effetto di flicker6 (in realtà i fotogrammi erano 5,
due di apertura, una scheda di avvertimento, uno bianco e
uno nero). La prima volta che il film venne proiettato, molti
spettatori ebbero attacchi epilettici e disturbi percettivi a
causa dei rapidi flash che producevano una sollecitazione
eccessiva della retina. La versione contemporanea di
quest’opera è stata realizzata da Kurt Hentschlager con
“Feed” nel 2008, opera che gioca appunto sul già sperimentato
effetto flicker, aggiungendoci la saturazione dello spazio
per mezzo di fumo sintetico che provoca volutamente la
perdita delle consuete coordinate fisico-spaziali, al fine di
ottenere una sollecitazione retinica e sensoriale estrema che
manda letteralmente in tilt il sistema nervoso, generando
autonomamente per ogni singolo soggetto, dei pattern visivi
2D e 3D, in stretto rapporto con specifiche aree del cervello.
6 Effetto di sfarfallio causato dalla repentina variazione della luminosità.
Kurt Hentschlager
Feed, 2008
65Capitolo 2
RISORSE
SANDRO BERNARDI, L’avventura del cinematografoMarsilio, Venezia 2007
Dispense workshop OTOLAB, Marzo 2010
TONY CONRAD, The flicker, 1966OSKAR FISCHINGER, Studium series, 1935LEN LYE, A colour box, 1935 , Free radicals, 1958MAN RAY, Emak Bakia, 1926McLAREN , Dots, 1940 , Sinchronomy, 1965GEORGE MELIES, L’homme à la tête en cahoutchouc, 1901HANS RICHTER, Rythm 21, 1921WALTER RUTTMANN, Opus I, Opus II, 1921DZIGA VERTOV, L’uomo con la macchina da presa, 1929ANDY WARHOL, Sleep, 1963
http://www.hentschlager.info/
67Capitolo 2
Il video, è per gli artisti uno strumento di ricerca più che
un codice di un nuovo genere o disciplina, tuttavia non può
esimersi da contaminazioni da parte dei media che hanno
fatto la storia prima di lui. Oltre al cinema e la fotografia,
per analizzare la poetica e gli obbiettivi della videoarte non
si può non parlare di televisione. Quest’ultima, nata come
evoluzione tecnica e linguistica della radio, ne conserva
le caratteristiche principali di dominanza del sonoro ed
inamovibile valore del tempo reale, producendo immagini
allo scopo di costruire standard di modelli comunicativi a
scarsa definizione e a larghissimo accesso, vincolata ad un
canone di una temporalità ed una spazialità unidimensionali.
68Capitolo 2
-Vt is not TV-
La videoarte nasce proprio in opposizione a questo potere
suadente al quale è impossibile opporsi, tuttavia utilizzandone
gli stessi procedimenti e talvolta le stesse immagini, seppur
distorte per ribaltare il senso del messaggio di ritorno alla
tv. Le prime forme di videoarte si sviluppano nell’ambito di
Fluxus, in particolare attraverso le sperimentazioni di Wolf
Vostell, Nam June Paik, in contemporanea con “The kitchen”,
collettivo fondato dai fratelli Vasulka.
Vostell, fu il primo ad esporre le sue sperimentazioni sul
mezzo televisivo benchè i suoi interventi erano più mirati
al dispositivo in sé, più che al medium video. Già nel 1958
nell’istallazione “Schwarzes Zimmer”, inserisce un televisore
tra le memorie e i lacerti dei campi di sterminio nazisti,
mentre nelle esposizioni successive agisce direttamente sul
dispositivo tecnologico: manomesso, rotto, alterato nella
ricezione, imbrattato o addirittura segato in due, il televisore
viene spesso accostato a materiali effimeri, rifiuti industriali,
simbolo di una condizione sociale aberrante, come nel caso
di “Endogene depression” del 1975 dove i televisori, spenti,
sono semiseppelliti nel cemento. Wolf Vostell
Endogene depression, 1975
Capitolo 2 69
Nam June Paik
Video Flag, 1985
Nam June Paik, invece, agiva più in profondità attraverso
la manipolazione del video nella sua anima di strumento
mediatico. Passato alla storia come il padre della videoarte,
nel 1963, inaugura una mostra dal titolo “Exposition of Music
- Electronic Television”, dove allestisce una sala con dodici
televisori elaborati e modificati per interagire con altri media.
Giradischi, mangianastri, registratori su nastro magnetico,
pianoforti elaborati, Paik interviene elettronicamente sulle
immagini televisive collegando questi strumenti al televisore
e facendo si che il segnale audio trasmesso da quest’ultimi
agisca sul segnale RGB del monitor della tv: le immagini
risultano tagliate, spezzate da righe e disturbi mentre il
pubblico aziona pedali e tasti di pianoforte appositamente
preparati per ottenere una performance multimediale
interattiva. Il processo di manipolazione elettronico delle
trasmissioni e delle registrazioni è dunque alla base delle
invenzioni di Paik, il quale mira a far interagire diversi campi
Nam June Paik
Exposition of Music
Electronic Television, 1963
70Capitolo 2
Nam June Paik
Electronic superhighway, 1995
Nam June Paik
Cello TV, 1971
di sperimentazione quali, la musica1, la scultura, la pittura
ed il cinema astratto, intrecciando la specificità formale
dell’immagine elettronica con la molteplicità dei linguaggi
artistici contemporanei. Viene ricordato inoltre per il suo uso
massiccio di videowall nella costruzione delle sue opere.
1 Presenterà tra l’altro i primi eventi basati sulla musica elettronica.
Nam June Paik
The More The Better 1988
71Capitolo 2
AI Fratelli Woody e Steina Vasulka, infine si deve la
fondazione di “The kitchen”, il collettivo artistico e spazio
privilegiato per sperimentazioni legate al video e alla
musica d’avanguardia creata a New York nel 1971. La sua
programmazione spaziava dal multimediale alla performance,
dai concerti alla letteratura, offrendo un variegato panorama
Woody, Steina Vasulka
Matrix I, 1970
Woodye, Steina Vasulka
Artifacts, 1980
Woody Vasulka
Noisefield, 1974
72Capitolo 2
Steina Vasulka
Violin Power, 1978
delle nuove tendenze. La loro intuizione migliore, fu
nel rendere esteticamente produttivo il principio fisico,
secondo il quale, una stessa frequenza elettromagnetica
(un segnale) può essere espressa come un suono ma anche
come un’immagine e viceversa. Questo permise ai Vasulka
di costruire delle opere audiovisive effettivamente unitarie,
accompagnate dall’invenzione di nuovi dispositivi, strumenti
ed effetti di distorsione di varia natura, facendo rientrare
il segnale video nel mixer audio per vederne l’effetto di
disturbo e di moltiplicazione oppure esattamente l’opposto
quando vedeva il suono provocare le modifiche nel segnale
video, come in “Violin Power” del 1978. Dagli anni 80 i
Vasulka si cimentarono con il digitale producendo opere
come “Artifacts” del 1980, che rappresenta il primo esempio
di conversione analogica-digitale in tempo reale, processo
ottenuto mediante uno strumento da loro stessi inventato
chiamato Digital Image Articulator.
73Capitolo 2
E Emshwiller
Crossing and meeting, 1974
Da queste prime esperienze, ne deriva un nuovo parametro
linguistico sviluppato sulla mescolanza delle immagini, detto
anche video-mixage. Questa mescolanza avviene per mezzo
di tre procedimenti particolari, la scovraimpressione, i giochi
di finestre e l’incrostazione: il primo vede la stratificazione
di immagini in giochi di trasparenze, il secondo permette
la composizione di frammenti di piani distinti all’interno
della stessa immagine-quadro, mentre il terzo consiste nella
famigerata tecnica del chroma-key2 o luma-key3. Il concetto
cinematografico di fuoricampo viene abolito, tutto viene
virtualizzato all’interno del video, scompare dunque la
nozione di inquadratura, quindi il compito del videoartista
diventa quello di comporre l’immagine-quadro: allo spazio
unitario e omogeneo della fotografia, del cinema e della
tv, si sostituisce lo spazio moltiplicabile ed eterogeneo
dellaimmagine in movimento come composizione.
2 Il Chroma key (letteralmente chiave cromatica, ma un termine italiano più preciso è intarsio a chiave colore) è una delle tecniche usate per realizzare i cosiddetti “effetti di Keying”, effetti speciali usati soprattutto in ambito televisivo, ad esempio per le previsioni del tempo. Il segnale video elettronico possiede due componenti, “luminanza” (b/n) e “crominanza” (RGB). Attraverso l’utilizzo di un colore chiave (blue o green di solito) è possibile la cancellazione questo colore al posto del quale può essere inserita una nuova immagina video.
3 Letteralmente chiave di luminanza, segue il medesimo principio del chroma-key, ma operando sulla luminanza dei video.
74Capitolo 2
Accanto alla composizione dell’immagine, la videoarte si
dedica anche alla fruizione dell’opera in materia di tempo.
Nella sua estetica, il tempo è spesso soggetto a manipolazioni
che ne demoliscono la linearità per magnificare gli aspetti
percettivi dell’opera, le tecniche peculiari utilizzate in
questo ambito sono il rallentamento, l’accellerazione, il
fuori-sincrono e la reiterazione delle immagini, attraverso
il riciclo (loop) continuo delle clips e/o delle composizioni
75Capitolo 2
RISORSE
BORDINI SILVIA, Arte ElettronicaGiunti, Milano 2004
VITTORIO FAGONE, L’immagine video Feltrinelli, Milano 1990
SANDRA LISCHI, Visioni elettroniche Marsilio, Venezia 2001
Dispense workshop OTOLAB, Marzo 2010
77Capitolo 2
L’arte elettronica, come abbiamo visto nasce da una
complessità di orientamenti che negli anni sessanta, si
confrontano con le ricerche artistiche che premevano nella
direzione di “uscita dal quadro” e della partecipazione attiva
del pubblico. L’opera quindi non consiste più nell’identificarsi
in un solo oggetto compiuto e immodificabile, ma con
un’azione-reazione nello spazio e nel tempo, che coinvolge
l’autore quanto lo spettatore. La videoarte appunto, si fa
portavoce di queste tendenze, evolvendo la sua struttura ed il
suo linguaggio a diverse soluzioni, distaccandosi dall’originale
intento di critica ed opposizione alla televisione.Il termine
videoarte, designa oggi tutte le utilizzazioni interne alla
78Capitolo 2
-Videoambienti-
produzione artistica del mezzo video, pertanto la sua prima
evoluzione vede l’immagine condotta attraverso diversi
monitor, spesso accorpati, per una più larga strutturazione
visiva che finisce inevitabilmente per interagire con
l’ambiente circostante (video-ambiente). Nascono così le
prime videoinstallazioni, che inseriscono la componente
temporale del videotape nella ristrutturazione plastica
e percorribile dello spazio: il fattore che regola questa
dialettica tra spazio e video si trova nell’elemento luce, il
quale conferisce al video un “carattere corporeo” capace di
regolare l’ordinamento spaziale percepito dallo spettatore. La
struttura dell’immagine ha una sua metrica ed un suo proprio
ritmo che ne definisce la temporalità, pertanto l’interezza
della spazialità luminosa (l’ambiente illuminato) si ridefinisce
ogni volta che vi è un rinnovamento dell’immagine video,
ridefinendo a sua volta una nuova valutazione dello spazio
da parte dello spettatore.
79Capitolo 2
Studio Azzurro
Il nuotatore va troppo spesso a Heidelberg, 1984
Un esempio concreto di questo rapporto video-spazio è
perfettamente riconoscibile nell’installazione di Studio Azzurro,
“Il nuotatore va troppo spesso a Heidelberg” (1984), composto da
dodici telecamere a pelo d’acqua che sincronizzano in altrettanti
schermi le bracciate di un nuotatore che passa da un monitor al
successivo in un evento che si svolge in quell’istante e che non sarà
mai uguale a se stesso.
80Capitolo 2
Gary Hill
Up against Down, 2009
Bruce Naumann
One hundred live and die, 1984
Doug Aitken
New Ocean, 2001
In seguito, questo carattere spaziale del video è sfociato nella
propria fuoriuscita dai confini del monitor, per incrostarsi nella
realtà di spazi ed oggetti che compongono l’ambiente. Soluzioni
installative che trovano un successo immediato sia per il maggiore
impatto visivo, sia per la capacità di adattarsi a qualsiasi situazione
di mostra delle opere.
81Capitolo 2
Bill Viola
Veiling, 1995
Bill Viola
Passage, 1987L
Tony Oursler
Hello?, 1996
Tony Oursler è tra i primi a liberarsi del monitor del televisore,
proiettando le immagini direttamente su pupazzi di stoffa inseriti
tra oggetti comuni, mentre altri esponenti illustri, tra cui Bill Viola,
Doug Aitken, Fabrizio Plessi, Gary Hill, Bruce Naumann adottano
soluzioni più scenografiche, sfruttando le stesse pareti, il suolo, o
l’intero complesso architettonico a disposizione.
82Capitolo 2
Fabrizio Plessi
Waterfire, 2001
83Capitolo 2
Granular Synthesis
Pol, 1998
Proprio sulla sperimentazione spaziale di queste opere si basano
gli artisti contemporanei che recentemente abbiamo avuto modo di
vedere in esposizioni sempre più interessanti che miravano appunto
allo sconvolgimento degli ordini spaziali e architettonici tramite la
luce: dai Granular Synthesis, primo gruppo artistico digitale, che
lavora sull’utilizzo del video come strumento musicale in installazioni
fortemente immersive come “360” del 1995, passando per le
applicazioni scenografiche di Claudio Sinatti, quindi passando quindi
al progetto Mangrovia (Visomat e Errorsmith), un live audovisivo
84Capitolo 2
Granular Synthesis
Feld, 2000
Claudio Sinatti
Live video ensemble, 2008
Claudio Sinatti
Milano love fashion, 2009
Granular Synthesis
Model 5, 1995
85Capitolo 2
86Capitolo 2
Granular Synthesis
360°, 2002
87Capitolo 2
Pablo Valbuena
Entramado, 2007
Pablo Valbuena
The haque city hall, 2008
88Capitolo 2
Pablo Valbuena
Augumented sculpture, 2007
incentrato sulla riorganizzazione sinestetica delle superfici di uno
schermo costituto da prismi, per finire a Pablo Valbuena, che con
il suo progetto “Augmented Sculptures” (scultura aumentata) è
probabilmente lo sperimentatore più interessante in questo campo.
Sincronia, sinestesia, ribaltamento dei pregiudizi dello spettatore
riguardo a bidimensionalità e tridimensionalità sono gli elementi
chiave del lavoro di Valbuena, per il quale il design estremamente
raffinato non è un fine (sterile) ma uno strumento per giocare con le
percezioni riguardo allo spazio ed al tempo. Tecnicamente si avvale
di software specifici che consentono il mapping1 dell’area scelta
come soggetto, da cui è possibile giocare andando a modificare
tramite proiezioni video quelle che sono le ombre e le luci delle
forme preesistenti. Ovviamente per realizzare tali effetti visivi sulle
forme esistenti è necessaria una precisione di proiezione ottimale.
1 Termine generico per identificare un meccanismo di corrispondenza tra due oggetti. In quest’ambito si riferisce alla rilevazione metrica di un oggetto o di un’area su cui si vuole proiettare
Mangrovia
Visomat/Errorsmith, 2006
89Capitolo 2
90Capitolo 2
Lab[au]
Dexia tower, 2008
Concludendo sul tema architettonico ed introducendo il prossimo
capito che tratterà di video-interattività, è da menzionare il progetto
“Spectraum” del 2005 di Lab[Au], realizzato sulla struttura delle
Dexia Tower di Bruxelles, dove la componente visiva consisteva nella
sequenza di illuminazioni in movimento sulla facciata dei palazzi,
ottenuta intervenendo sul sistema di illuminazione esterno tramite
software appositi. La peculiarità di questa installazione risiede
nel fatto che le combinazioni luminose ed il relativo visual erano
controllate in tempo reale tramite uno schermo touch screen che ne
permetteva la modellazione.
91Capitolo 2
RISORSE
BORDINI SILVIA, Arte ElettronicaGiunti, Milano 2004
BRUNO DI MARINO, Tracce, sguardi e altri pensieri Feltrinelli, Milano 2008
SANDRA LISCHI, Visioni elettroniche Marsilio, Venezia 2001
Dispense workshop OTOLAB, Marzo 2010
http://www.studioazzurro.com/http://www.granularsynthesis.infohttp://www.claudiosinatti.comhttp://www.pablovalbuena.com/http://lab-au.com/
93Capitolo 2
95Capitolo 3
3. Arte elettronica-Temi e modelli-
L’ultima evoluzione delle videoinstallazioni, nonché
oggetto principale di questa tesi è l’introduzione
dell’interattività, che trasforma le opere di videoarte in vere
e proprie performance virtuali. Sfruttando la caratteristica
peculiare del computer di reagire in tempo reale, immagini
e suoni vengono manipolati in relazione alla presenza
e l’agire degli spettatori, i quali diventano intermediari
attivi, talvolta coautori, tra strumento, artista ed opera.
Il precedente rapporto visivo, mentale ed emotivo che
caratterizza la dimensione estetica, viene così dotato di una
96Capitolo 3
-Ambienti sensibili-
nuova dimensione fisica, dall’occhi al corpo, che produce un
coinvolgimento inevitabile attraverso gli effetti immersivi di
scenografie virtuali. I primi segni di questa partecipazione
attiva alle videoinstallazioni si ritrova già a negli anni
settanta, ancor prima dell’avvento dei computer, dove la
variante di estensione performativa del video, è costituita
da semplici installazioni con strumenti di videoregistrazione
a circuito chiuso. Bruce Nauman è tra i primi a portare avanti
questo tipo di ricerca in cui il comportamento del pubblico
è chiamato in causa senza particolari interventi che ne
conducano il comportamento.
Nel dettaglio, le installazioni di Nauman, i famosi
“Corridors”, consistono in lunghi e stretti percorsi alla cui
estremità, un sistema di telecamere e monitor, si rimandano
reciprocamente la visione frontale o quella di schiena
di chi transita nel corridoio stesso, inseguendo la propria
immagine senza mai raggiungerla. Un opera dunque basata
sull’ambiguità della percezione dove il procedimento del
feedback1, produce uno scollamento tra presente e passato,
che spersonalizza il soggetto e l’immagine nel momento
stesso in cui entrambi sono la condizione indispensabile
dell’esistenza dell’opera stessa.
1 La retroazione (feedback in inglese, ma usato spesso anche in italiano) è la capacità dei sistemi dinamici di tenere conto dei risultati del sistema per modificare le caratteristiche del sistema stesso. In questo caso si riferisce alla presenza di una telecamera che riprende lo spettatore che può riguardarsi sul monitor.
Bruce Nauman
Live-taped video corridor, 1969
97Capitolo 3
Laurent Mignonneau &
Corista Sommerer
Life writer, 2006
L’introduzione del computer nell’arte, quindi di tutta la tecnologia
che ne deriva, persegue questo tentativo di simbiosi tra pubblico e
opera, moltiplicandone infinitamente le possibilità creative. Alcuni
esempi li troviamo con Corista Sommerei e Laurent Mignonneau
che fanno crescere e manipolare su uno schermo una flora virtuale
quando i visitatori toccano delle piante reali (“Interactive plant
growing”), oppure con Jeffery Shaw, che fa dello spettatore che
pedala e sterza su una bicicletta, l’interfaccia vivente per navigare
su un grande schermo in una realtà virtuale appositamente creata di
scritte gigantesche (“The legible city”).
da sinistra a destra
Jeffery Shaw
The legible city, 1989-91
Laurent Mignonneau &
Corista Sommerer
Life writer, 2006
98Capitolo 3
In Italia, Studio Azzurro si fa portavoce di questa corrente,
sviluppando un particolare orientamento attento all’interazione
tra immagine elettronica e ambiente circostante al fine di rendere
completamente invisibile il supporto tecnologico, creando “interfacce
naturali”2 per degli ambienti interattivi che gli spettatori sono
invitati a scoprire. La ricerca tecnico-artistica di Studio Azzurro, è il
risultato di diverse componenti di tempo, spazio, artista, spettatore,
immagini e suono, che trovano l’interazione nella dimensione del
gioco, ovvero la fruizione dell’opera attraverso una metodologia
ludica che esprime la volontà del gruppo ad opacizzare e umanizzare
quella stessa tecnologia di cui si avvale. Ecco quindi che abbiamo
figure immateriali che si animano (in virtù del controllo di dispositivi
informatici) quando sono toccati (“Tavoli”, 1995), calpestati (“Coro”,
1995), quando reagiscono ai rumori (“totale della battaglia”, 1996) o
in relazione alla presenza ed ai movimenti degli spettatori (“Il soffio
sull’angelo”, 1997).
2 “interfacce naturali”, è un espressione coniata dagli stessi autori di Studio Azzurro, per indicare il controllo dei video o degli oggetti in questione, attraverso i gesti liberi delle persone ed i loro comportamenti, grazie a dispositivi informatici che permettono di registrarli e convertirli in segnali elettronici.
da sinistra a destra
Studio Azzurro
Tavoli, 1995
Studio Azzurro
Coro, 1995
99Capitolo 3
100Capitolo 3
Il coinvolgimento di queste forme d’arte interattiva sviluppa
nuovi parametri sia per quanto riguarda l’esperienza, sia per la
valutazione critica dell’opera: la realtà virtuale elimina la distanza
tra il fatto artistico ed il suo pubblico, mettendone in discussione
l’autonomia di entrambi, quindi il fattore ludico che trasforma le
videoinstallazioni in luoghi socializzanti dove è possibile comparare
la propria esperienza con quella degli altri3. Ne consegue il successo
di questa forma d’arte che trova ampi risvolti sociali nel momento
in cui esce dal museo e dalla mostra per essere presentata in spazi
pubblici accessibili a tutti.
3 da qui la definizione di “ambienti sensibili”
Studio Azzurro
Il soffio sull’angelo, 1997
schema per installazione
nella pagina precedente
Studio Azzurro
Il soffio sull’angelo, 1997
101Capitolo 3
Studio Azzurro
Il gorgo (nessun mare è troppo profondo), 1998
nella pagina successiva, dall’alto in basso
Studio Azzurro
Galileo (stui per l’inferno), 2006
Studio Azzurro
Museo audiovisivo della resistenza, 2000
102Capitolo 3
103Capitolo 3
RISORSE
ANDREA BALZOLA, ANNA MARIA MONTEVERDI, Le arti multimediali digitaliGarzanti, 2004
BORDINI SILVIA, Arte ElettronicaGiunti, Milano 2004
FABIO CIRIFINO, PAOLO ROSA, STEFANO ROVEDA, LEONARDO SANGIORGI, Ambienti sensibili Electa,, Milano 1999
SANDRA LISCHI, Visioni elettroniche Marsilio, Venezia 2001
LAURENT MIGNONNEAU, CORISTA SOMMERER, Interactive art researchSpringer Verlag, New York 200
http://www.studioazzurro.com/http://www.interface.ufg.ac.at
105Capitolo 3
L’avvento del digitale e la rapida maturazione della
tecnologia negli ultimi anni, hanno rivoluzionato e stanno
rivoluzionando i processi di creazione dell’arte. Danza e
teatro, arti che per eccellenza si fondano sulla tradizione
orale e compresenza, si stanno anch’esse affacciando su
questo mondo, dove si sta delineando una visione in cui
queste tecnologie permettano l’estensione delle facoltà
percettive e motorie del corpo umano, allo scopo di
esplorarne nuovi linguaggi espressivi. Le premesse di tali
tendenze nascono innanzitutto dalla doppia constatazione
106Capitolo 3
-La scena digitale-
che i danzatori, coreografi, scenografi, registi si interessano
sempre più al digitale e alle nuove tecnologie informatiche,
e che a loro volta, gli ingegneri informatici sono incuriositi e
ispirati dalla produzione artistica, con particolare attenzione
al movimento corporeo. Gli uni, quindi, guardano al digitale
come strumento contemporaneo da utilizzare, mentre gli altri
guardano all’arte come campo di sperimentazione. Alcuni
artisti ampliano le potenzialità espressive dello spettacolo in
scena impiegando dispositivi informatici e interattivi, altri si
avvalgono della coreografia assistita al computer, mente altri
ancora si rivolgono maggiormente agli ambienti virtuali ed
all’interazione di persone reali con essi. Un esempio sono le
recenti esperienze nell’ambito della videodanza, intesa come
dematerializzazione e frammentazione del corpo mediante
tecnologie di “motion capture”1 per riproporlo con i relativi
movimenti sottoforma di immagine virtuale, come nel caso
di “Hand drawn spaces” promosso da Riverbed, una società
di artisti digitali tra cui Paul Kaiser e Merce Cunningham,
due importanti esponenti della videodanza. Lo spettacolo
consiste in una videoinstallazione di 8 minuti e mezzo
(presentata per la prima volta alla Cooper Union di New
York nel 1998), composta di 71 piccole sequenze catturate e
rielaborate graficamente come un disegno a mano libera (da
qui il nome). La selezione ed il montaggio di tutte le scene
sono state eseguite grazie all’aiuto di Motion Flow editor, un
nuovo software per l’animazione creato appositamente per il
progetto: oltre ad editare le sequenze catturate, è possibile
montare in successione, con continuità d’azione sequenze
diverse, grazie a complessi algoritmi che permettono al
software di calcolare la parte di azione mancante su basi
fisiche provenienti dalla robotica.
1 Cattura del movimento in italiano, indica un’area di ricerca, che studia appunto i meccanismi per la cattura del movimento, può essere inteso come il procedimento stesso di acquisizione del movimento.
Paul Kaiser
Hand drawn spaces, 1998
107Capitolo 3
Paul Kaiser
Gostcatching, 1999
Paul Kaiser
Biped, 1999
108Capitolo 3
Yacov sharir
Studi per il motion capture
Contemporaneamente a queste sperimentazioni di cattura
del movimento, Yacov Sharir sviluppava un prototipo “midi”2
di tappeto sensibile alla pressione, al fine di cogliere non solo
i movimenti del corpo del danzatore, ma i suoi spostamenti
nelle tre dimensioni dello spazio scenico. Il tappeto è
costituito da numerosi sensori che rilevano la pressione
attaccati ad un pannello di plastica molto resistente e
rivestito di spugna di polietilene. Ai vari pannelli, disposti
in griglia sulla scena è attribuita una rete di dati connessa
ad una scatola di tensione con interfaccia midi, la quale può
essere programmata per convertire delle entrate-uscite di
segnali analogici in segnali midi.
2 Il MIDI (Musical Instrument Digital Interface) è un’interfaccia hardware che consente il collegamento fisico tra vari strumenti, quindi anche un linguaggio informatico che permette la conversione di dati analogici in digitale.
109Capitolo 3
Klaus Obermaier
Apparition, 2004
Mark Coniglio
Future of memory, 2003
Mark Coniglio
16 [R]evolution, 2006
110Capitolo 3
Queste tecniche si sono presto evolute e perfezionate in sistemi
ottici di cattura del movimento, ovvero attraverso l’uso delle
telecamere, quindi senza la necessita di sensori, fili o connettori
da attaccare al danzatore. Ecco quindi il ritorno alla presenza
fisica del corpo umano sulla scena, dove tutto diventa interattivo.
Ogni componente della scena (audio, luci e proiezioni), può essere
controllato dai movimenti dell’attore o danzatore che sia, creando
una nuova forma di spettacolo in cui corpo e scenografia si fondono
per creare una performance unica ed irripetibile, come per gli
spettacoli di Klaus Obermaier o di Mark Coniglio, scenografo e
programmatore informatico quest’ultimo, inventore tra l’altro di
Isadora, un software per la programmazione visuale e l’interazione
audio-video che utilizzerò nel mio progetto.
Klaus Obermaier
Apparition, 2004
111Capitolo 3
RISORSE
ANDREA BALZOLA, ANNA MARIA MONTEVERDI, Le arti multimediali digitaliGarzanti, 2004
ARMANDO MENICACCI, EMANUELE QUINZ, La scena digitale Marsilio editori, Venezia 2001
Dispense workshop OTOLAB, Marzo 2010
http://www.exile.at/ko/http://www.troikaranch.org/
113Capitolo 3
Tra le tendenze che negli ultimi anni si affermano in
campo video artistico, c’è sicuramente da annotare il Visual
Jokeying, comunemente chiamato Vjing: trattasi di una
performance videoartistica in tempo reale che unisce al
flusso musicale di un contesto spettacolare, l’alternarsi di
immagini in movimento come videoclip auto prodotti. Tale
performance si avvale di tecnologia elettronica e digitale,
sia attraverso l’uso di media analogici sia digitali. Il lavoro
del VJ comincia dalla produzione delle clip video, spesso
114Capitolo 3
-Vjing e live media-
tramite software dedicati1 o in altri casi tramite mixer
video analogici con lettori di vario genere, di conseguenza
le clip possono essere create originali, rielaborate o
decontestualizzate per un determinato ambito performativo,
oppure selezionate da un repertorio di immagini d’autore che
consistono in immagini cinematografiche non commerciali
da cui estrapolare dei dettagli delle inquadrature che siano
esteticamente significativi. La durata media di queste clip si
aggira tra uno e sette secondi, dove è molto importante il
taglio delle immagini che deve tenere conto della dinamica
del loop, in modo che il movimento finale sia armonico con
quello iniziale, per evitare disturbi nello scorrimento del
video o nella sua intera ripetizione.
La natura real-time del Vjing rende affine questa
pratica al concetto di performance teatrale, in qualità di
evento che si svolge “qui ed ora”. Il tempo dunque è un
fattore determinate della performance che deve cogliere i
cambiamenti dell’ambiente che lo circonda accompagnando
il flusso sonoro con immagini appropriate, dal sof-ambient,
che predilige la figura astratta, alla percussione della
musica elettronica, che predilige l’immagine figurativa in
movimento. L’articolazione del re-mix dei video, che sia
lasciata ad una automazione semi-controllata del computer
o al controllo in tempo reale delle macchina analogiche2,
non può escludere un qualsivoglia intervento da parte del VJ
che grazie alla sua conoscenza del repertorio musicale che
accompagnerà la performance, deve abilmente inserirsi sulla
ritmica del flusso sonoro ambientale, quindi è necessaria
una buona conoscenza dei tempi musicali che accompagnano
i diversi generi, per una corretta sincronizzazione delle
battute video-musicali.
1 Ogni clip viene trattata e/o post-prodotta con determinati software video di editing e composing fx dedicati, tra cui Premiere, Final cut, Avid per l’editing e After effect per il composing fx
2 Attraverso l’utilizzo di mixer video e controller analogici è possibile utilizzare le pulsantiere che dissolvono le immagini, come veri e propri strumenti di percussione.
115Capitolo 3
Un’altra considerazione a proposito della progettazione delle
clip, riguarda la luminosità, in quanto esse vengono video-proiettate
solitamente su grandi schermi o su altre superfici che ne sostituiscano
la funzione, influendo non poco sulla quantità di luce presente
nell’ambiente della performance. Si rende opportuno dunque lo
studio preventivo della condizione illuminotecnica della location
per apportare le giuste correzioni di luce e colore che consenta
di mantenere la voluta percezione delle immagini proiettate. In
quest’ambito, assume una particolare importanza la dissolvenza in
nero, ovvero il buio, che diventa anch’esso portatore di significato
che accompagna i momenti delle pause musicali oppure produce
ritmi incalzanti se accompagnato da effetti stroboscopici3.
Le ultime sperimentazioni sul campo, grazie all’introduzione di
software generativi di sintesi musicale e di programmazione visuale4,
3 Repentina trasformazione da dissolvenza piena in immagine a dissolvenza in nero.
4 Il mercato offre una vasta gamma di prodotti a riguardo, tuttavia i più noti e diffusi sono Ableton Live e Reason per la sintesi musicale, e Max asp/jitter per la programmazione visuale. Nei capitoli successivi di questo testo tratteremo nello specifico il software Isadora in relazione alla programmazione visuale.
Vjing performance
116Capitolo 3
sono dirette ad un controllo programmato che pone in totale simbiosi i
due medium, video e musica, attraverso l’assegnazione di parametri
definiti per entrambe le parti, quindi la possibilità di assegnare
determinate clip a determinate frequenze musicali e viceversa,
oppure la possibilità di intervenire su peculiari caratteristiche
come la melodia, il colore o la luminosità in relazione a variazioni
dell’ambiente in cui si svolge la performance grazie anche al supporto
di strumentazioni di rilevamento ottico o sensoriale5. In questo
caso, il ruolo del VJ non sarà più quello di controllare il flusso di
immagini durante la performance, ormai automatizzata dai sistemi
informatici, ma lo vedrà cimentarsi in una attenta programmazione
del sistema visuale selezionando prima le immagini da proiettare e
le loro possibili manipolazioni.
5 Sensori di varia natura (i sensori infrarossi sono solitamente i più utilizzati) accompagnati da piattaforme di interfaccia hardware (Arduino) e software (Eyes Web).
117Capitolo 3
Otolab
Giardini neri, 2008
Basandosi sulle stesse metodologie tecnologiche del vjing, ma
con strutture visive e comunicative profondamente diverse troviamo
le cosiddette performance “live media”, ovvero dei veri e propri
concerti di musica elettronica, solitamente orientati verso sonorità
rumoristiche, in cui sia l’audio che il video sono modulati in tempo
reale, basandosi però su strutture predefinite. Tale struttura,
che sostiene lo sviluppo dell’intera performance, ha spesso come
punto di partenza una tematica specifica e quindi un preciso fine
comunicativo, tant’è che la modulazione in tempo reale si avvale
spesso di una partitura anche per ciò riguarda l’aspetto narrativo
visuale. Quindi, a differenza delle pratiche di vjing, nei live
media ritroviamo un ritorno al rapporto stretto ed interattivo tra
immagine e suono che diventa l’unico commento visivo possibile alla
performance musicale, sfruttando come per i vj, le potenzialità di
supporti diversi digitali e analogici.
Otolab
op7, 2008
118Capitolo 3
In questo campo merita menzione Otolab, un gruppo artistico
contemporaneo abile nella progettazione e attuazione di queste live
performance sulla ricerca di una traduzione visiva in termini grafici
di differenti layout sonori giocando molto su effetti di profondità
visiva e sonora, che esaltano l’immerisività della performance.
Otolab
Nuke belly button, 2007
119Capitolo 3
RISORSE
ANDREA BALZOLA, ANNA MARIA MONTEVERDI, Le arti multimediali digitaliGarzanti, 2004
Dispense workshop OTOLAB, Marzo 2010
http://www.otolab.net/
121Capitolo 3
123Capitolo 4
4. Strumenti-Tecnologia e risorse-
Prima di ogni effetto audio o video, gli ambienti diventano
interattivi grazie a sistemi elettronici adibiti alla ricezione,
conversione e trasmissione dei dati da e verso appositi
dispositivi che ricoprono determinati ruoli. Uno di questi
dispositivi che ha avuto un enorme successo negli ultimi anni è
Arduino, una piattaforma di prototipazione elettronica open-
source in grado di interagire con l’ambiente in cui si trova
ricevendo informazioni da una grande varietà di sensori,
controllando luci, motori e altri attuatori. È basato su una
124Capitolo 4
-Piattaforme elettroniche-
semplicissima scheda di I/O1 e su un ambiente di sviluppo
che usa una libreria Wiring per semplificare la scrittura di
programmi in C e C++ da far girare sulla scheda. Arduino
può essere utilizzato per lo sviluppo di oggetti interattivi
stand-alone ma può anche interagire, tramite collegamento,
con software residenti su computer, come Adobe Flash,
Processing, Max/MSP, Pure Data,Quartz Composer, vvvv,
Isoadora, ecc. Il progetto Arduino ha preso avvio a Ivrea,
nel 2005, con lo scopo di rendere disponibile, per i progetti
di Interaction design, un dispositivo per il controllo che
fosse più economico rispetto ad altri sistemi disponibili
precedentemente.
1 Input/output
125Capitolo 4
SPECIFICHE HARDWARE
Arduino consiste in un microcontroller2 a 8-bit prodotto dalla
Atmel, con l’aggiunta di componenti complementari che ne
facilitino l’incorporazione in altri circuiti. Molte schede includono
un regolatore lineare di tensione a 5-volt e un oscillatore a cristallo
a 16MHz (o un risonatore ceramico in alcune varianti), sebbene
alcune implementazioni, come ad esempio LilyPad, girino a 8Mhz
e facciano a meno dello stabilizzatore di voltaggio a causa delle
specifiche restrizioni al fattore di forma. Inoltre, il controller
Arduino è pre-programmato con un bootloader3 che semplifica il
caricamento dei programmi nella memoria flash incorporata nel
chip, rispetto ad altri dispositivi che richiedono, solitamente, un
programmer esterno. A livello concettuale, tutte le schede sono
programmate attraverso un porta seriale RS-232, ma il modo in cui
questa funzionalità è implementata nell’hardware varia da versione
a versione. Le schede seriali Arduino contengono un semplice circuito
inverter4 che permette la conversione tra il livello della RS-232 e il
livello dei segnali TTL. Le recenti versioni di Arduino (Diecimila e
Duemilanove) vengono gestite via USB, grazie a un’implementazione
che usa dei chip adattatori USB-seriale, tuttavia alcune varianti,
come la Arduino Mini e la versione non ufficial Boarduino, usano una
scheda o un cavo adattatore USB-to-serial staccabile. La Arduino
esibisce molti dei connettori di Input/Output per microcontroller
usati da altri circuiti. La Diecimila, ad esempio, ora soppiantata
dalla Duemilanove, offre 14 connettori per l’I/O digitale, 6 dei quali
2 Un microcontrollore o microcontroller, detto anche computer single chip è un sistema completo, che integra in un solo chip processore, memoria permanente, memoria volatile ed input/output
3 Un boot loader è un programma che carica il kernel di un sistema operativo e ne permette l’avvio
4 Un inverter è un apparato elettronico in grado di convertire corrente continua in corrente alternata eventualmente a tensione diversa, oppure una corrente alternata in un’altra di differente frequenza.
126Capitolo 4
possono produrre segnali PWM5, mentre 6 sono dedicati a ingressi di
segnali analogici. Questi pin sono disponibili sulla parte superiore
della scheda, mediante connettori femmina da 0.1 pollici. Infine,
sono disponibili commercialmente molte schede applicative plug-
in, note come “shields. Fino a oggi sono state commercializzate
undici versioni dell’hardware Arduino, tuttavia la scheda, oltre ad
essere acquistata già assemblata, può essere costruita: il software
può essere scaricato gratuitamente, mentre i progetti di riferimento
dell’hardware (file CAD) sono distribuiti con licenza open-source.
5 La modulazione di larghezza di impulso, dall’inglese pulse-width modulation o PWM, è un tipo di modulazione analogica in cui l’informazione è codificata sotto forma di durata nel tempo di ciascun impulso di un segnale.
Arduino Diecimila
127Capitolo 4
SPECIFICHE SOFTWARE
Lo IDE6 di Arduino è un’applicazione multipiattaforma (gira su Mac,
Windows e Linux) scritta in Java, ed è derivata dallo IDE creato per
il linguaggio di programmazione Processing e per il progetto Wiring.
L’editor è concepito per introdurre alla programmazione artisti e altri
neofiti, a digiuno di pratica nello sviluppo di software per permettere
la stesura del codice sorgente ed è inoltre in grado di compilare e
lanciare il programma eseguibile in una sola passata e con un singolo
click. L’ambiente di sviluppo integrato di Arduino è fornito di una
libreria software C/C++ chiamata “Wiring” (dall’omonimo progetto
Wiring), che rende molto più semplice implementare via software
le comuni operazioni input/output, infatti per poter creare un file
eseguibile, all’utilizzatore non è chiesto altro se non definire due
funzioni:
setup() – una funzione invocata una sola volta all’inizio di un
programma che può essere utilizzata per i settaggi iniziali
loop() – una funzione chiamata ripetutamente fino a che la scheda
non viene spenta.
6 Un integrated development environment (IDE), in italiano ambiente di sviluppo integrato, è un software che aiuta i programmatori nello sviluppo del codice.
128Capitolo 4
RISORSE
http://www.arduino.cc (download, manuale, forum, tutorial)
http://hacknmod.com/hack/arduino-tutorial-how-to-introduction-guide
(tutorial in inglese)
http://www.ladyada.net/learn/arduino (tutorial in inglese)
Banzi, Massimom, “Getting Started with Arduino” (libro in inglese)
Arduino Duemilanove
129Capitolo 4
SENSORISTICA
I sensori di contatto sono meccanici, sebbene possano sembrare primitivi, sono indispensabili in applicazioni di sicurezza. Spesso i robot, anche se equipaggiati con sensori sofisticati, restano imprigionati da oggetti difficili da rilevare; i sensori di contatto in questo caso, se ben disposti sul perimetro del Robot sono infallibili. Spesso rappresentano la soluzione piu’ economica e semplice.
-Contatto-
-Giroscopi-
I Giroscopi misurano la velocità angolare. Sono utili per rilevare rotazioni anche microscopiche. Si utilizzano in applicazioni avanzate che richiedono un feedback sullo spostamento di un corpo nello spazio.
La IMU (Inertia Measurement Unit) è una Piattaforma Inerziale, ovvero un dispositivo che combina vari tipi di sensori, principalmente Accelerometri e Giroscopi, ai quali spesso vengono aggiunti sensori utili a misurare altre grandezze come la temperatura, utili a compensare le misurazioni dei sensori principali. Questi dispositivi sono utilizzati in applicazioni avanzate in campo robotico, spaziale, aereonautico, missilistico, etc.
-IMU-
Questi sensori utilizzano la luce infrarosso per misurare la distanza o per rilevare oggetti. Sono molto versatili, economici e compatti. Sono influenzati dalla luce ambientale, dal colore, dal tipo di superfice e dall’angolazione dell’oggetto da rilevare. Sebbene siano piu’ indicati per interni si dimostrano utili anche all’esterno.
-Infrarossi-
I sensori magnetici sono spesso utilizzati per la misurazione/rilevamento del campo magnetico terrestre, in questo modo funzionano come delle vere e proprie bussole. Possono tuttavia avere altre applicazioni inerenti la misurazione di un campo magnetico.
-Magnetici-
fonte: www.robot-italy.com130Capitolo 4
SENSORISTICA
Gli Accelerometri misurano l’accelerazione. Le nuove tecnologie hanno creato sensori molto sensibili e sensori in grado di misurare accelerazioni molto forti. Alcuni sensori hanno funzionalità accessorie, come il rilevamento di un doppio tocco, oppure dei trigger, utili per attivare funzioni specifiche.
-Accelerometri-
GPS misurano la posizione di un oggetto sulla superficie terrestre. Si servono di satelliti che trasmettono dei dati utili ad elaborare, tramite interpolazione di più satelliti, la posizione, l’altezza, etc. Oggi la tecnologia ci fornisce dei dispositivi GPS con una sensibilità fino a qualche anno fa inpensabile, con dimensioni e costi veramente contenuti. Sono abbastanza semplici da utilizzare, utilizzano un protocollo standard seriale.
-GPS-
In questa categoria sono compresi tutti i sensori che rilevano un input, sia esso umano o meccanico. Troviamo quindi joystick, tastierini, etc.
Input
I sensori ad ultrasuoni sono molto precisi e raggiungono distanze anche di 10 metri, sono assolutamente insensibili alla luce ambientale e al colore dell’oggetto da rilevare. Possono misurare con buona accuratezza la distanza dell’oggetto rilevato. Hanno un ampio campo di lettura, questo a volte puo’ generare degli eco. Tuttavia facendo la media delle letture si ottiene comunque un dato molto preciso. Sono sicuramente i migliori sensori da esterni ma vanno altrettanto bene negli interni.
-Infrarossi-
Questa categoria raggruppa tutti i sensori che restituiscono informazioni utili per determinare la posizione o il movimento del Robot nello spazio e non rientrano nelle altre categorie.
-Posizione-
fonte: www.robot-italy.com 131Capitolo 4
Esistono numerosi sistemi di cattura del movimento,
quali sistemi protesici, acustici, magnetici e ottici, tuttavia
in questo paragrafo tratteremo esclusivamente il sistema
magnetico e quello ottico, ovvero i due sistemi più diffusi e
utilizzati negli ultimi anni.
La cattura magnetica del movimento implica l’uso di
un trasmettitore posto in posizione centrale rispetto al
campo d’azione, che emette un forte campo magnetico,
quindi un apparato di sensori attaccate alle varie parti del
corpo. Ognuno di questi sensori fornisce un flusso di dati
corrispondente alle diverse posizioni e spostamenti nello
spazio degli stessi sensori, in relazione al campo magnetico
generato sulla scena. Alcuni di questi sensori sono collegati al
sistema di ricezione ed elaborazione dei segnali (computer)
attraverso dei cavi, mentre altri utilizzano dei trasmettitori
e ricettori radio consentendo una maggiore mobilità del
132Capitolo 4
-Motion capture-
soggetto nello spazio, seppur il maggior difetto di questo
sistema risieda proprio nella limitazione del capo magnetico
di cattura che può avere un diametro soltanto di qualche
metro.
Il sistema ottico di motion capture funziona sempre
attraverso dei sensori o marcatori posizionati sul corpo, che
riflettono il movimento in modo direzionale, quindi vi è la
necessita dell’installazione di un minimo di 3 telecamere,
spesso anche di più, per catturare i movimenti sui 3 assi
x,y,z dello spazio tridimensionale. I sistemi ottici, offrono
una totale libertà di movimento in quanto non necessitano
di alcun cablaggio, tuttavia emerge l’inconveniente
della cosiddetta “occlusione”, ovvero quando uno o più
sensori riflettenti vengono persi o rimangono nascosti alla
telecamera, provocando un interruzione del flusso di dati al
quale però, software dedicati sopperiscono usando algoritmi
che possono calcolare ed interpolare le sezioni mancanti del
movimento.
Al contrario dei sistemi magnetici, a causa dell’occlusione,
quindi a problemi di calcolo da parte del computer, i sistemi
ottici tenderebbero a non essere adatti alle performance in
tempo reale, tuttavia la maggiore libertà di movimento e la
maggiore praticità dal punto di vista tecnico ne hanno favorito
il largo uso, promosso anche dalla maggiore accuratezza
133Capitolo 4
nella cattura dei movimenti in relazione ad un ampio uso di
sensori riflettenti. In entrambi i casi i dati raccolti dai sistemi
di cattura del movimento sono perfettamente compatibili
con i maggiori software per l’animazione 3D come Maya e 3D
Studio Max.
Le ultime ricerche nell’ambito della motion capture,
vertono verso sistemi di cattura sempre più duttili ed
economici per favorirne la diffusione sul mercato anche
a livelli formativi nelle scuole di varie discipline. La
telecamera sembra essere l’oggetto principale delle varie
sperimentazioni, quindi l’analisi delle immagini catturate da
quest’ultima, attraverso particolari algoritmi informatici che
mirano a sviluppare software in grado di simulare la visione
dell’occhio umano in quanto a percezione del movimento
e della profondità secondo le conoscenze acquisite dalla
fisiologia1. Un recente esempio di queste sperimentazioni
1 Per approfondire vedere “computer vision” o “visione artificiale”.
134Capitolo 4
è un nuovo sistema di cattura sviluppato dalla ricerca
congiunta dello Swiss Federal Institute of Technology, del
MIT e del Mitsubishi Electric Research Laboratories che
rileva i movimenti del corpo umano sfruttando giroscopi,
accelerometri, emettitori di ultrasuoni e microfoni. Come
detto precedentemente, quando si parla di motion capture
ci si riferisce a una tecnologia che presenta degli elevati
costi, ma principalmente si riferisce alla necessità di essere
utilizzata solo in un ambiente “controllato”, in studio o in
laboratorio. Convenzionalmente, questa tecnologia fa uso di
punti riflettenti o piccoli LED attaccati in punti chiave sul
busto, arti e testa di una persona: i movimenti di questi
punti sono catturati da una serie di telecamere, permettendo
agli animatori di creare uno scheletro del soggetto via
computer, che poi potrà guidare i movimenti del soggetto
rielaborato al computer2, il sistema progettato dal gruppo
2 I dati estrapolati dai sistemi di cattura del movimento possono essere acquisiti ed elaborati da software di animazione 3D. Maya e 3D Studio Max sono i due software più completi e diffusi.
135Capitolo 4
http://www.youtube.com/watch?v=V0yT8mwg9nc&feature=player_embedded,
still dal video
di ricerca dei tre enti invece, consente un’applicazione
anche “su strada”, permettendo di registrare e digitalizzare
movimenti che in studio non sarebbero replicabili. Il singolo
sensore, delle dimensioni di pochi centimetri e vincolato
agli arti dell’individuo, è composto dunque da giroscopi ed
accelerometri, che determinano velocità e direzione del
movimento dell’arto, e da emettitori di ultrasuoni che,
grazie ad un microfono posto in corrispondenza del plesso
solare, permettono di stabilire la distanza precisa dei sensori
dal corpo, similmente a quanto accade con un sonar. Tutti
i sensori sono controllati e gestiti da un sistema portatile,
che può essere facilmente trasportato in uno zaino. Proprio
questa caratteristica di trasportabilità consente al sistema di
essere impiegato anche nelle situazioni più difficili.
In quanto a software per l’aquisizione e l’elaborazione
dei dati provenienti dalla capture motion, un programma
di recente successo è Eyesweb, sviluppato dal Laboratorio
DIST di informatica musicale dell’università di Genova, il
quale permette lo sviluppo di applicazioni multimediali in
tempo reale, attraverso un’interfaccia grafica intuitiva di
programmazione visuale. Si basa infatti su blocchi, ovvero
moduli software pre-compilati che implementano funzioni di
elaborazione di immagini e suoni, con la possibilità di creare
136Capitolo 4
patches personalizzate o creare nuovi moduli seguendo le
istruzioni di un software “wizard”3 che guida passo passo
nell’inclusione di un nuovo algoritmo in un nuovo modulo.
Insomma Eyesweb è stato sviluppato come alternativa ad
altri software di programmazione visuale come Max asp/
jitter, tuttavia deve il suo successo al suo peculiare utilizzo
nel campo della motion capture data la possibilità di
catturare i movimenti attraverso la semplice ripresa video su
cui poi progettare il rilevamento attraverso la sagomazione
del soggetto e l’assegnazione di punti chiave della stessa
sagoma. Dunque è possibile assegnare parametri di mobilità
attraverso i quali si possono registrare i “comportamenti” del
movimento.
3 Letteralmente “mago”, un programma wizard, consiste in un procedimento di un programma che aiuta a configurare lo stesso e/o a semplificare lo svolgimento di varie procedure complicate per utenti meno esperti.
Eyes Web, schermata
137Capitolo 4
Un’innovazione importante portata da Eyesweb è
appunto la presenza di una particolare classe di moduli
denominati “attivi”, che ricevono dati ma hanno una loro
propria dinamica che li porta a generare i relativi dati in
uscita in modo asincrono, relazionando i dati ricevuti con
quelli pre-acquisiti, con modelli4 o in relazione con gli stessi
dati in uscita, quindi reagire di conseguenza. Una forma di
intelligenza artificiale questa, che mira non solo a catturare
il movimento, ma a distinguerne i relativi comportamenti
laddove una stessa azione in contesti diversi posso generare
una reazione differente, ovvero la distinzione di “stili” di
movimento attraverso la gestualità dei movimenti: velocità,
accelerazione dei movimenti corporei, quanto e come
viene occupato il volume sulla scena, simmetrie o meno
nel movimento degli arti, differenze di movimento delle
braccia rispetto alle gambe o di precise parti del corpo
(polsi, caviglie,dita), ecc. La ricerca di Eyesweb verte
pertanto verso l’interpretazione del movimento nel tentativo
di percepire l’espressività del soggetto attraverso i suoi
comportamenti (gestualità rigida o morbida per esempio),
quindi l’assegnazione di significati differenti. La soluzione è
di conseguenza determinare quali sono i parametri chiave per
riconoscere tali differenze comportamentali. Il programma
contiene infine deigli appositi moduli per la programmazione
e la trasmissione dei dati registrati attraverso un’uscita midi,
consentendone l’ultilizzo ad altri programmi. Da qui la pratica
comune di un utilizzo congiunto con Max o altri programmi di
programmazione visuale.
4 Eyesweb contiene delle librerie per l’analisi del movimento suddiviso in tre categorie: analisi dei movimenti corporei (motion) , analisi dei movimenti nello spazio (space) ed analisi delle traiettorie (trajectory).
138Capitolo 4
Un esempio pratico dell’assegnazione di parametri comportamentali
è l’immagine successiva dove è raffigurata una patch5 che prevede
l’acquisizione del movimento da due telecamere b/n con funzioni per il
filtraggio dello sfondo, quindi la sagomazione del soggetto a cui sono stati
assegnati punti di interesse per il calcolo dei parametri di movimento.
La mappatura di questi punti si modifica con i movimenti del soggetto
producendo un flusso dati in relazione ai parametri assegnati, in questo
caso immobilità e mobilità per gli spostamenti oppure implosione (chiusura
del corpo verso il baricentro) e esplosione (espansione del corpo rispetto
al baricentro), dove le piccole linee verdi rappresentano l’evoluzione degli
stati nel tempo. Se si osserva l’andamento del parametro di implosione/
esplosione è alternato data la postura su un solo piede da parte del
soggetto, la quale influisce sul baricentro rendendolo instabile.
5 Letteralmente “pezza”, in programmazione informatica, indica un file eseguibile creato per svolgere una determinata operazione
Eyes web, schermata
139Capitolo 4
RISORSE
MOTION CAPTURE
http://en.wikipedia.org/wiki/Motion_capture
Phasespace http://www.phasespace.com
Xsens http://www.xsens.com/
Vicon http://www.vicon.com
ANIMAZIONE 3D
3D Studio Max, Maya http://www.autodesk.com
PROGETTO EYESWEB
http://musart.dist.unige.it
http://www.infomus.org
http://biomobius.trilcentre.org/docs/EyesWeb%20GDE%20
141Capitolo 4
Un linguaggio di programmazione visuale, a differenza
della maggior parte degli altri linguaggi basati sulla scrittura
testuale dei programmi, si basa sulla composizione e
relazione tra oggetti grafici. La scrittura di un programma
(detto patch) consiste nella interconnessione dei vari moduli
o oggetti (objects) attraverso cavi virtuali (patchcordos) che
ne regolano le relazioni: l’interfaccia completamente grafica
dei vari software di programmazione visuale, permette un
utilizzo del tutto intuitivo delle varie funzioni attraverso
la selezione dei moduli catalogati in librerie, ognuno dei
quali creato per apposite funzioni di acquisizione e/o
elaborazione dei dati. La sintassi risulta così estremamente
semplificata rendendo accessibile l’utilizzo del software
anche a chi non possiede particolari conoscenze e capacità
di programmazione informatica, tuttavia la si rende
necessaria in caso di lavori più complessi, infatti, in quasi
142Capitolo 4
-Programmazione visuale-
tutti i programmi è prevista la possibilità di modificare e/o di
inserire nuovi moduli personalizzati inserendo direttamente
gli algoritmi attraverso apposite procedure che variano da
programma a programma. Questo ha permesso il fiorire di
librerie di oggetti create da programmatori di terze parti, o
addirittura indipendenti, che ampliano notevolmente il range
di possibilità che ogni software in questione offre. Inoltre per
favorire la diffusione e lo scambio di patches fra gli utenti,
quasi tutti i software di programmazione visuale prevedono
una doppia versione del programma, che oltre alla consueta
versione completa, rilasciano una versione detta “runtime”,
ovvero una versione demo scaricabile gratuitamente dai siti
delle compagnie di produzione dei software, che possiede
tutte le facoltà di esecuzione della versione completa,
senza però la possibilità di editare patches al suo interno,
concedendo da parte sua il libero utilizzo di patches esterne,
in modo da facilitare l’utilizzo di un utente che sia interessato
ad una singola patches senza avere l’obbligo di comprare il
software completo. Queste librerie sono solitamente suddivise
per tre categorie in relazione all’ambito di utilizzo, ovvero
la categoria di oggetti dedicati al controllo MIDI, quella
dedicata alla generazione ed elaborazione di audio digitale
ed infine quella dedicata alla generazione ed elaborazione
di segnali video. In ogni caso, tutte le tipologie di oggetti
possono essere utilizzate contemporaneamente nella stessa
patch rendendo possibile la creazione di complessi algoritmi
di elaborazione in real-time. La vastità delle librerie e la
capacità di relazione tra i vari oggetti, determinano quindi
le potenzialità e le caratteristiche dei vari software presenti
oggi sul mercato.
143Capitolo 4
Max MSP/Jitter
Max è un ambiente di sviluppo grafico per la musica e la
multimedialità ideato ed aggiornato dall’azienda di software
Cycling ‘74, con base a San Francisco, California. È utilizzato
da oltre quindici anni da compositori, esecutori, progettisti
software, ricercatori e artisti interessati a creare software
interattivo. Oltre alla tipica caratteristica di programmazione
ad oggetti grafici, una API1 permette a terze parti lo sviluppo
di nuove routines (chiamate external objects, oggetti esterni).
Un’ulteriore caratteristica di Max è la possibilità di creare
plug-ins e applicazioni stand-alone a partire da una patch,
compatibili con tutti i formati esistenti, ossia VST, RTAS, MAS
e nella versione per OSX anche AU.
1 Application Programming Interface (Interfaccia di Programmazione di un’Applicazione), sono ogni insieme di procedure disponibili al programmatore, di solito raggruppate a formare un set di strumenti specifici per un determinato compito
Max MSP/Jitter, schermata
144Capitolo 4
PREZZO
Max MSP/Jitter 5, 699 $, Max MSP 5, 495 $, Max 5, 295 $
La possibilità di acquistare il software in diverse versioni
relative alle librerie incluse, offre una soluzione adeguata
a tutte le esigenze e possibilità di utilizzo da parte degli
utenti, senza spese eccessive altrimenti inutili. Inoltre la
possibilità tramite un software gratuito di creare moduli e
patches personalizzate, mira a soddisfare le categorie di
clienti più esigenti
DIFFUSIONE Windows, Mac
La vastità delle librerie, la possibilità di disporre di una
versione run-time del software, di sviluppare applicazioni ha
fatto di Max MSP/Jitter il software più utilizzato nella musica
di ricerca, nell’elettronica, nonché punto di riferimento per la
creazione di installazioni ed opere multimediali interattive.
USABILITÀ
Il principio di funzionamento è facilmente apprendibile
tuttavia lo studi degli oggetti richiede più tempo e qualche
lettura pesante. La vera difficoltà risiede nel memorizzare
tutti gli oggetti (400 nella versione in commercio più
altrettanti scaricabili dalla rete) e le possibilità che essi
offrono, poiché come in tutti i linguaggi di programmazione,
una cosa può essere realizzata in mille modi diversi, alcuni
più efficienti degli altri.
145Capitolo 4
146Capitolo 4
http://www.cycling74.com (download, manuale, forum, tutorial)
http://www.maxobjects.com (dowload librerie)
http://www.studiotoolz.net/ (dowload librerie)
http://artsites.ucsc.edu/EMS/music/research/Lobjects.readme.html (dowload librerie)
http://ppooll.klingt.org/index.php/Main_Page (dowload librerie)
http://virtual-sound.com/vs/ (forum in italiano)
MUSICA ELETTRONICA E SOUND DESIGN,Teoria e Pratica con Max-MSP, (libro)
RISORSE
Essendo il software standard, quindi il più diffuso in ambiti
professionali, si avvale di una community molto vasta e
preparata con una ottima reperibilità di risorse (anche in
italiano) di qualsiasi tipo come manuali, tutorial ed oggetti
o patches scaricabili, a partire dallo stesso sito della casa
di produzione del software. Innumerevoli anche le iniziative
formative ed i workshop in giro per il mondo.
147Capitolo 4
Quartz Composer
Quartz Composer è un linguaggio di programmazione visuale
incluso degli Apple Developer Tools dedicati al sistema
operativo MacOSX, indirizzato alla realizzazione di effetti
visivi basati sull’utilizzo di componenti preconfezionati
che vengono assemblati per realizzare le composizioni.
Quartz Composer utilizza OpenGL, Core Image, Core Video
e altre tecnologie incluse nel sistema operativo MacOSX
coniugandolo con un paradigma di programmazione visuale.
Le composizioni create con Quartz Composer possono
essere eseguiti da ogni applicativo che integra la tecnologia
QuickTime. Questi applicativi richiedono il MacOSX 10.4
o superiore dato che i componenti integrati da QuickTime
sono disponibili da quella versione. Le composizioni possono
essere integrate anche all’interno di classi Cocoa2 o Carbon3.
Dato che Quartz Composer fa un esteso uso di texture,
accelerazione hardware e pixel shaker.
2 Cocoa è l’ambiente di programmazione orientato agli oggetti sviluppato da Apple per il sistema operativo Mac OSX
3 Carbon è il nome in codice dato da Apple alle API contenute nel sistema operativo Mac OSX che consentono ai programmi scritti per i sistemi della Apple precedenti a Mac OSX di funzionare sul nuovo sistema operativo tramite piccole modifiche.
Quartz Composer, schermata
148Capitolo 4
PREZZO gratuito
Quartz Composer viene installato con gli XCode Tools nella
cartella /Developer/Application/Graphics Tools del sistema
operativo Mac OSX 10.4 o superiore.
DIFFUSIONE Mac
Essendo un tools di un sistema operativo Apple, la diffusione
è di conseguenza vincolata al sistema operativo Mac OSX,
tuttavia una volta acquistato il computer con il relativo
sistema operativo, non è più necessario reperire il software
altrove.
USABILITÀ
L’interfaccia grafica è molto semplice ed intuitiva, quindi
si addice agli utenti principianti che si affacciano alla
programmazione visuale per la prima volta, in particolare
se privi di ogni conoscenza ed abilità di programmazione
informatica. Quartz Composer ha molte similarità con
il programma Max/MSP/Jitter sebbene questo venga
principalmente utilizzato per mostrare degli effetti visiva
associati a un flusso audio. La capacità dei componenti di
gestire sorgenti esterni come flussi audio o MIDI all’interno
del player QuickTime o di altre applicazioni QuickTime
compatibili, ha generato un grande interesse tra molti VJ che
utilizzano Quartz Composer per generare effetti video durante
il mixing dei pezzi audio. Una libreria limitata di oggetti
che non permette lo sviluppo di applicazioni complesse è un
punto a sfavore per Quartz, anche se le ultime versioni sono
state arricchite di nuove possibilità nel tentativo di limare il
gap con Max ed altri prodotti simili.
149Capitolo 4
150Capitolo 4
http://developer.apple.com/graphicsimaging/quartz/quartzcomposer.html(user guide)
http://www.quartzcompositions.com (forum in inglese)
http://quartzlab.blogspot.com (formu in italiano)
RISORSE
Essendo un software vincolato all’ambiente mac, la prima
conseguenza è quindi una limitazione non trascurabile
del bacino d’utenza, tuttavia gran parte dei professionisti
nell’ambito della programmazione visuale lavora appunto in
ambiente mac, pertanto sulla rete è disponibile una discreta
quantità di risorse.
151Capitolo 4
Isadora, schermata
Isadora
Isadora è un software sviluppato da Mark Coniglio il quale,
partendo dalla sua esperienza con il gruppo di teatro-
danza multimediale Troika Ranch assieme Dawn Stoppiello,
ha sviluppato una piattaforma estremamente intuitiva e
flessibile. Dall’iniziale focus sull’interazione con performers
tramite sensori e controllo di pacchetti MIDI, oggi Isadora
(che il pubblico italiano ha visto all’opera nei lavori di
Claudio Sinatti, Otolab e Softly Kicking) gestisce una quantità
impressionante di proprietà, dai più tradizionali effetti video
alla renderizzazione in tempo reale di file 3D complessi,
permettendo la sincronizzazione multischermo e creando
le premesse per un’interattività e una flessibilità che fino a
qualche anno fa erano impensabili per chi non fosse pronto a
cimentarsi con la programmazione “dura”.
152Capitolo 4
PREZZO 350$ Mac version, 225 $ Windows version
V’è la possibilità di vari sconti in relazione alla quantità di
licenze comprate, e molto importante è previsto uno sconto
speciale in caso di acquisto della licenza per scopi formativi,
in modo da favorire la diffusione del software in ambienti
scolastici.
DIFFUSIONE Mac, Windows
Il fatto di avere una versione per entrambe le piattaforme
principali di sistemi operativi in commercio è un fattore di
notevole accessibilità e quindi di successo, tuttavia essendo un
software di recente sviluppo ha ancora margini di espansione.
È utilizzato in moltissime installazioni multimediali interattive
ed ha anche un discreto successo per le VJing performance.
USABILITÀ
I software derivati da Max sono estremamente flessibili ma
spesso orientati a un pubblico di programmatori, mentre
software vj-oriented scontano i difetti di un’eccessiva
limitazione nelle opzioni a disposizione. Isadora è il software
che oggi probabilmente si trova a metà strada tra questi
due estremi, risultando abbastanza facile imparare i primi
passi, senza togliere la complessità desiderata da chi ha
più esperienza. Questa combinazione di facilità d’uso e
implementazioni per utenti esperti è la chiave del suo
successo, essendo indicato anche per gli ambienti formativi
scolastici e professionali.
153Capitolo 4
154Capitolo 4
http://www.troikatronix.com/isadora.html (download, manuale, forum, tutorial)
www.interno3.org/hof/luca%20ferro.pdf (tutorial in italiano)
RISORSE
Essendo un software di recente sviluppo, non ha ancora conseguito
una diffusione tale da avere una reperibilità di risorse all’altezza,
tuttavia consideratone il successo, quest’ambito è tutt’ora in via
di sviluppo, in crescendo naturalmente. La community non è molto
vasta, ma è molto disponibile: lo stesso ideatore del software,
Mark Coniglio, partecipa attivamene al forum del sito ufficiale,
promuovendo e presenziando talvolta ad eventi, corsi e workshop
che aumentano in continuazione.
155Capitolo 4
vvvv, schermata
VVVV
VVVV, Sviluppato da Sebastian Oschatz e Joreg Diessl della Meso,
centro nevralgico indipendente e non riccamente finanziato di
molta attività laboratoriale attorno a software e strumenti per la
produzione mediale interattiva a livello artistico e professionale.
VVVV è un software utile per la sintesi video in tempo reale ed il
controllo di oggetti fisici tramite sensori, interfacce e controlli midi.
Indicato soprattutto per creare installazioni ed esperimenti che
generino grafica sintetica e possano interagire con diversi utenti,
dispone di un ambiente di programmazione grafico che ne semplifica
l’utilizzo, ed è evoluto da un tool interno per la progettazione di
video, ad ambiente sufficientemente generico da poter essere
utilizzato per diverse finalità, dal vjing fino all’arte elettronica.
156Capitolo 4
PREZZO Full 500€, Noleggio 1 settimana 200€
La licenza è necessaria per tutte le applicazioni commerciali
con possibilità di sconti in caso di acquisto di più licenze,
tuttavia è disponibile una versione gratutita di valutazione
per scopi non commerciali.
DIFFUSIONE Windows
Essendo un prodotto compatibile solo con l’ambiente Windows,
la diffusione è di conseguenza vincolata al sistema operativo.
dopo le sue prime pubblicazioni nei primi anni 2000, ha perso
visibilità a favore di altri programmi più recenti.
USABILITÀ
L’interfaccia grafica e la fruizione è simile a quella di Max
ma è molto più limitato nelle librerie e nelle possibilità
di programmazione. Ha un ottima qualità nella grafica
generativa pertanto viene usato principalmente nelle
performance Vjing.
157Capitolo 4
158Capitolo 4
http://vvvv.org/ (download, manuale, forum, tutorial)
http://node08.vvvv.org (forum)
http://www.lanvideosource.net/fondamenti_di_vvvv.pdf (tutorial in italiano)
RISORSE
Considerata la sua discendente visibilità a favore di altri
programmi più recenti, risulta più complicato reperire risorse
adeguate all’apprendimento del software, tuttavia rimane
una delle poche alternative ai molteplici software per gli
ambienti Mac.
159Capitolo 4
Altre alternative possono essere Processing e Pure Data, ma
se per il primo si tratta di programmazione testuale, quindi
implicando profonde conoscenze informatiche per utenti
esperti, il secondo è semplicemente la versione open source4 di
Max, ma con una interfaccia grafica più scarna ed una libreria
limitata, tuttavia per gli utenti più esperti c’è la possibilità di
creare moduli e patch personalizzate equivalenti a quelle di
Max, senza rinunciare ad alcuna funzione. Pure Data inoltre,
possiede un alto livello di compatibilità tra patches prodotte
in ambienti differenti (è disponibile anche per Linux oltre
che per mac e Windows) e permette di utilizzare le sue patch
anche su Max e viceversa.
4 In informatica, open source (termine inglese che significa sorgente aperta) indica un software i cui autori (più precisamente i detentori dei diritti) ne permettono, anzi ne favoriscono il libero studio e l’apporto di modifiche da parte di altri programmatori indipendenti.
RISORSE
http://processing.org/ (download, manuale, forum, tutorial)
http://puredata.info/ (download, manuale, forum, tutorial)
http://www.puredata.it/ (download, manuale, forum, tutorial in italiano)
Pure Data, schermata160Capitolo 4
161Capitolo 4
RISORSE
http://www.ableton.com (download, manuale, forum, tutorial)
http://www.abletonlivedj.com (forum inglese)
http://www.noise collective.net (forum italiano)
Concludendo, preso per certo che MAX MSP/Jitter
rappresenta attualmente, nel bene e nel male, lo standard di
fatto per lo sviluppo di ambienti interattivi multimediali, le
alternative non mancano, ognuna con le sue caratteristiche
e con i suoi orientamenti. Come detto, VVVV è stato uno dei
primi ad entrare in campo ed ha avuto un discreto successo
nell’ambito Vjing per piattaforma Windows. è gratis e viene
utilizzato per una buona produzione di grafica generativa.
Quartz Composer, su piattaforma Mac, invece è una novità
relativamente recente ed anche’esso viene prevalentemente
utilizzato dai vj per la grafica generativa e per gli effetti video
durante il mixing audio, finendo con Isadora, l’ultimo nato
che ha ancora ampi margini di miglioramento, ma utilizzato
da moltissimi artisti contemporanei, riesce a coniugare la
semplicità d’uso a possibilità più avanzate oltre ad essere
reperibile sia per Mac (consigliato) che per Windows. Ha una
discreta gestione anche di file pesanti e sta trovando un
ottimo successo nelle pratiche di mapping per le proiezioni
architettoniche.
162Capitolo 4
Queste considerazioni sono chiaramente orientate alla parte
prettamente visuale, quindi all’interazione video, dunque
per approfondire queste conoscenze anche in materia audio
segnalo Ableton live, un programma per il sound design che
deve il suo successo ad un interfaccia amichevole e molto
intuitiva, permettendo di editare ogni genere di suono anche
senza determinate capacità musicali. Ableton live, offre
inoltre la possibilità di allacciarsi a dei controller esterni ed
interfacciarsi con altri programmi come Isadora per collegare
un evento audio ad un’azione specifica.
Ecco infine tre siti italiani relativi a tre community molto
attente alle novità in uscita, nonché ottimi strumenti per la
reperibilità di risorse di ogni tipo per quanto riguarda il vjing
in particolare.
RISORSE
http://www.soundesign.info/
http://www.virtual-sound.com/sv/
http://www.vjcentral.it/
Ableton Live, schermata163Capitolo 4
165Capitolo 5
5. Progettazione-Total people scanning-
Il concept di questa installazione audiovisiva interattiva,
muove in primo luogo, dall’idea di poter raccontare eventi di
attualità attraverso media e tecnologie non convenzionali. Ci
troviamo nel Gennaio 2010, tra le varie notizie di cronaca,
imperversa il dibattito sull’utilizzo dei body scanner negli
aeroporti, un dibattito dove i dubbi sulla reale utilità (e
infallibilità) di queste apparecchiature si incrociano con i
timori per la violazione della privacy e per i possibili danni alla
salute. In Italia i primi scanner per la sicurezza aeroportuale
sono stati provati nel 2009 allo scalo di Ciampino. Il sistema
è semplice: il passeggero entra in una cabina a braccia e
gambe divaricate. Trenta secondi, qualcuno in più per i
sistemi a raggi x, e un software trasforma i segnali ricevuti
in un’immagine, quindi il monitor su cui appare una sorta
di fotografia in negativo è posizionato in una sala diversa
rispetto a quella dove sta il passeggero. L’agente che visiona
166Capitolo 5
-Concept-
l’immagine è collegato a quello che controlla attraverso un
auricolare. L’immagine non viene memorizzata ma subito
cancellata, mentre chi non vuole sottoporsi all’esame dello
scanner può richiedere un’ispezione manuale accurata.
Tuttavia le polemiche più accese riguardano la questione
della privacy, parzialmente smorzate con la soluzione di
opacizzazione della figura in modo da rendere irriconoscibili
i particolari anatomici quali il volto e gli organi genitali,
oggetti principali delle proteste. Dal punto di vista tecnologico
esistono due tipologie di body scanner: quelli a raggi x,
evoluzione delle tecnologie mediche, e quelli a onde radio,
più recenti e di derivazione militare. La prima tecnologia si
chiama Backscatter x-Ray e utilizza raggi x che non penetrano
l’oggetto (come quelli più potenti per le radiografie) ma
usano le radiazioni di ritorno del corpo. Forniscono immagini
a due dimensioni e in bianco e nero. La seconda tecnologia,
la Millimeter wave scanner, usa onde radio cortissime (come
i raggi T) e a elevata frequenza. Fornisce una foto del
corpo tridimensionale. Concludendo sulla questione salute,
l’esposizione alle onde radio durante il controllo sarebbe 10
mila volte minore a quella di una trasmissione col cellulare,
167Capitolo 5
mentre quella ai raggi x equivalente a due minuti di volo,
tuttavia non si conoscono ancora gli effetti a lungo termine,
pertanto esistendo un rischio probabilistico, per i bambini è
preferibile l’ispezione manuale. Da qui l’installazione in chiave
multimediale, sulla diffidenza, il controllo e la paura. Body
scanners, sistemi di controllo/vigilanza, segnali di allarme;
sequenze di effetti personali ispezionati, multi processati,
magnificati, remixati (di fatto) alienati, sono alcuni dei
simboli in cui lo spettatore si immerge, con cui interagisce,
gioca e “inattualizza” la contemporaneità. Il tutto viene
presentato in chiave ironica e satirica laddove la scansione
delle persone che passano dallo scanner, riporta visivamente
l’individuazione di oggetti normalmente considerati innocui,
che in questo caso vengono indicati come oggetti pericolosi,
quindi decontestualizzati e riproposti da un punto di vista
assurdo che richiama alla riflessione e ai significati delle
tematiche sopracitate. Non più bombe, pistole o coltelli,
ma prosciutti, padelle e vibratori che dissociandosi talvolta
da un senso logico, invadono prepotentemente la nostra
privacy in nome della sicurezza come scherno alla paura e
alla diffidenza.
Bodyscanner
168Capitolo 5
169Capitolo 5
Total people scanning è un’installazione audiovisiva
interattiva, ideata e curata dal prof. Giuseppe Ridolfi in
collaborazione con Aida, allestita in occasione dell’evento
“Le Murate” del 16 Gennaio 2010. Trattasi dell’inaugurazione
di un nuovo spazio urbano recuperato da uno stabile in disuso
situato nel pieno centro storico di Firenze: il complesso
(quattrocentesco) era il monastero intitolato alla Santissima
Annunziata e a Santa Caterina, dove abitavano le monache di
clausura dette “murate”, in seguito, per circa cento anni, dal
1883 al 1985 è stato il carcere di Firenze.
170Capitolo 5
-Analisi e sviluppo del progetto nello spazio-
L’evento era suddiviso in diverse aree tematiche su musica,
arte, architettura e design, ognuna con le relative esposizioni.
Total people scanning si colloca quindi nella sezione A, “walkin
on the architectural border”, spazio espositivo della Facoltà
di Architettura dell’Università degli Studi di Firenze, dove
attraverso 8 “stazioni” di proiezione video e/o interattive si
presentano alcune sperimentazioni/esplorazioni dei confini
dell’achitettura e del design, in particolare nell’interazione
con le tecnologie dell’informazione.
171Capitolo 5
La location risulta particolarmente importante come punto
di partenza nell’ideazione e progettazione dell’installazione.
Il nostro spazio, infatti era situato in corrispondenza di uno
dei due ingressi del locale espositivo, ovvero un punto di
passaggio obbligatorio, quindi in una posizione ideale per
la simulazione di un body scanner, risolvendo così anche le
problematiche relative all’incentivazione del pubblico alla
partecipazione.
Flussi
L’ingresso fungeva anche da uscita, quindi i flussi di
movimento erano bidirezionali, tuttavia il flusso maggiore
di pubblico che visitava lo spazio espositivo proveniva da
l cortile, quindi tendenzialmente in entrata per poi uscire
dall’altro ingresso della sala.
-FLUSSI DI MOVIMENTO-
-PIANTA MANIFESTAZIONE-
172Capitolo 5
Lo spazio a disposizione era di circa 12m2 (6mx2m), nel
dettaglio, l’installazione era composta da tre elementi in
relazione tra loro attraverso diversi sistemi interattivi. Come
accennato precedentemente, in corrispondenza dell’ingresso
era stato progettato uno scanner fittizio, composto
essenzialmente da due pile di schermi per videowall, quindi
uno schermo di posto sulla parete opposta all’entrata
visualizzava il video della scansione. Infine un’ulteriore
schermo di 4mx3m posto sulla parete alla destra dell’ingresso
era adibito alla visualizzazione di un altro video interattivo.
-PROIEZIONI-
173Capitolo 5
Tra le due pile di schermi video, era posta un’asse di legno
(di color nero) come architrave, sulla quale erano posizionati
il sistema a fotocellula per il rilevamento del movimento
e il proiettore per il video relativo alla “scansione”. Sulla
parete opposta all’ingresso, veniva quindi proiettato il video
corrispondente alla scansione della persona che attraversando
lo scanner faceva scattare la fotocellula, mentre sulla parete
alla destra della porta, veniva montato un grande schermo
Videocamera
per rendere la simulazione dello scanner più
scenografica, abbiamo posto una videocamera puntata
direttamente su uno degli schermi, ricreando un effetto
di ritorno del segnale, generando così effetti visivi i
quali vengono visualizzati in tutti gli altri schermi.
Assonometria
174Capitolo 5
Schema tecnologico
4mx3m su cui era proiettato un secondo video scenografico
controllato da un sistema interattivo collegato ad una
webcam che riprendeva il passaggio delle medesime persone
all’interno del nostro spazio espositivo.
La presenza di questi due sistemi di interazione quali
la scansione e il video controllato dalla webcam, implica
l’utilizzo di due pc per la relativa gestione: uno controlla
dunque l’attivazione delle scansioni attraverso l’apposita
programmazione in Flash, mentre l’altro è adibito al controllo
del secondo video tramite la programmazione in Isadora.
I due sistemi sono totalmente indipendenti e ininfluenti
tra loro dal punto di vista tecnologico, sebbene in seguito al
passaggio dallo scanner, il pubblico è costretto a passare dallo
spazio soggetto alla ripresa della webcam per ovvie ragioni
di passaggi obbligatori, pertanto si è creata un’interazione
tra i due sistemi semplicemente attraverso la disposizione
nello spazio degli stessi.
175Capitolo 5
In questo paragrafo tratterò nello specifico i singoli
elementi visivi e tecnologici che caratterizzano l’allestimento
dello scanner, elemento principale dell’installazione.
Dal punto di vista tecnologico, oltre alla struttura in stile
videowall per la simulazione di un body-scanner, descritta
nel paragrafo precedente, prende particolare interesse il
sistema di rilevamento del movimento tramite fotocellula,
che a sua volta aziona la proiezione del video sulla parete
opposta. Secondo una corretta procedura nella costruzione
di questo sistema interattivo, si renderebbe necessaria e
176Capitolo 5
-Editing multimediale-
consigliabile l’utilizzo un’interfaccia midi hardware e software
come Arduino, per interfacciare appunto il segnale analogico
proveniente dalla fotocellula con il programma digitale che
regola la proiezione del video (Adobe Flash in questo caso),
tuttavia, per la mancanza di tali mezzi e relative competenze,
considerando anche il budget economico pari a zero che non
ci ha concesso l’acquisto di strumenti al di fuori di quelli
già messi a disposizione da AIDA, abbiamo dovuto aggirare
il problema con un piccolo trucco hardware che consiste
in una specifica saldatura tra il cavo proveniente dalla
fotocellula e un comunissimo mouse per pc. Ne consegue la
riduzione dell’interfacciamento software per il controllo del
segnale, alla semplice assegnazione di un tasto specifico in
corrispondenza del clic del mouse modificato, tasto a cui
è assegnato a sua volta il controllo della proiezione con il
programma software di controllo del video (Flash).
177Capitolo 5
In merito all’editing multimediale è stato effettuato
un accurato lavoro a livello video per rappresentare le
scansioni delle persone attraverso il trattamento di immagini
fotografiche dapprima su Photoshop, per poi essere montate
ed animate con l’ausilio di elementi grafici su Flash. Il
visual è dunque composto dal disegno di una sagoma
stilizzata ed offuscata che rappresenta l’immagine di un
corpo umano privato di qualsiasi tratto di riconoscibilità o
distinzione sessuale, ovviamente utilizzato come riferimento
standardizzato per l’immagine corporea delle persone che
si sottopongono alla scansione, a prescindere dalle loro
caratteristiche fisiche. Una serie di elementi grafici disegnati
appositamente per simulare la scansione, giocano sulle
maschere di livello che alla fine del processo ne svelano
l’oggetto pericoloso evidenziato dal colore rosso, da sempre
colore relativo a segnali di attenzione e/o pericolo, scelto
anche perchè in contrasto con le tonalità cianotiche del
resto della composizione per una corretta e immediata
visualizzazione e percezione da parte del pubblico. I restanti
elementi grafici di contorno quali la griglia di fondo e i
parametri numerici a lato dell’immagine corporea non sono
semplicemente elementi scenografici inseriti allo scopo di
aumentare l’impatto visivo del visual.
Audio
Ogni elemento e la relativa animazione è accompagnata da un
preciso evento sonoro studiato per esaltarne l’espressività, come
nell’animazione finale di individuazione dell’oggetto pericoloso dove alla
scritta intermittente “warning” che ne segnala la pericolosità, corrisponde
una sirena sincronizzata all’intermittenza che ne amplifica l’effetto.
178Capitolo 5
179Capitolo 5
ActionScript 1
Funzione che genera un numero in base alla data che viene
utilizzato per forzare il caricamento (Refresh) dell’XML
Per quanto riguarda la programmazione per la gestione
delle immagini è stata realizzata sempre con l’utilizzo di
Flash, creando dapprima uno stage contenente le immagini
statiche degli elementi scenografici del visual, per assicurare
un visual attivo anche in corrispondenza dello stato di riposo
del sistema, il quale, una volta attivato il segnale proveniente
ActionScript 2
Funzione principale che carica il documento XML creato dallo
script ASP con i dati prelevati dal Data Base
180Capitolo 5
ActionScript 3
Funzione che prende i dati XML e li mette in degli array
e funzione che estrae un elemento casuale dall’array dei files
dalla fotocellula, richiama in un contenitore vuoto (un clip
filmato) gli swf esterni contenenti le animazioni preelaborate
delle scansioni. Le animazioni vengono selezionate secondo
un criterio casuale, attraverso degli appositi script che
selezionano i video da un file esterno xml, contenete l’elenco
dei file a disposizione.
Stato di riposo Stato attivo
181Capitolo 5
Il secondo sistema interattivo dell’installazione è quello
relativo al controllo video attraverso il rilevamento del
movimento nella sala tramite l’utilizzo di una webcam.
Questo sistema è stato realizzato grazie ad Isadora, un
software di programmazione grafica a oggetti visuali. Un
software per la programmazione è essenzialmete un software
che permette di creare altri software secondo le esigenze del
fruitore, pertanto l’utilizzo di Isadora si deve alla necessità
di creare un’interfaccia per il controllo dei dati provenienti
dal sistema di rilevamento, la webcam in questo caso.
182Capitolo 5
-Programmazione in Isadora-
Ovviamente l’utilizzo del software di programmazione
è preceduto dalla produzione e importazione dei materiali
audio e video su cui intervenire attraverso l’interfaccia.
Il visual è composto da una serie di immagini di valigie
scansionate nell’areoporto, montate in succcessione
ricreando quindi l’effetto del rullo trasportatore attraverso
il programma di editing video. Anche il colore è stato
modificato per rientrare nella armonia cromatica dell’intera
installazione. Come azione interattiva, il video reagisce al
movimento, ovvero al passaggio delle persone nella sala
successivamente al passaggio dallo scanner, quindi il video
accellera e un elemento sonoro ne sottolinea l’andamento.
183Capitolo 5
L’attore Video In Watcher, non è nient’altro che la fonte video
esterna, ovvero la webcam che deve essere inserita nei settaggi
di videoinput del programma quindi attivarne la cattura dei dati.
L’attore Eyes, invece è una funzione di ricezione e analisi del
video proveniente dalla fonte assegnata, quindi è in grado di
estrapolare dati numerici relativi a determinate caratteristiche.
Nel nostro caso sfrutteremo il parametro Object Velocity, che
controlla il movimento generale del la fonte video inserita.
L’attore Smoother, serve a smorzare e omogenizzare
il flusso di dati numerici in uscita dall’attore Eyes,
in modo da rendere meno brusche le variazioni
repentine tra i diversi valori.
Entrando nel vivo del programma, vediamo che si tratta di una
patch abbastanza semplice, quindi passiamo ad analizzare
le funzioni di ogni attore sul trattamento dei materiali in
entrata.
184Capitolo 5
Gli attori Movie Player, Sound Movie Player e Sound
Player, sono gli attori corrispondenti ai relativi materiali
importati di cui è comnposto l’installazione audiovisiva,
ovvero, in ordine, il video delle valigie, l’audio del
video e un secondo audio che si attiva solo in presenza
di una sollecitazione, quindi del movimento rilevato.
Come si può notare dall’immagine, i valori in uscita dallo
Smoother, quindi da Eyes intervengono allo stesso modo
sia sulla velocità del video che su quella dell’audio a cui
viene regolata anche l’intensità sonora.
Projector è l’ultimo attore inserito che consente la visualizzazione del
video nello stage, quindi le immagini proiettate, mentre Zoomer è un
controllo per lo Zoom del video che necessitava di accorgimenti scenici
riguardanti appunto la proiezione reale sullo schermo.
In tutti gli attori, ma in questi particolarmente, risulta
fondamentale prestare attenzione alle scale di parametri su cui
si interviene, assegnando i valiri massimi e minimi in base alle
proprie esigenze, lasciando per esempio una velocità minima
nella Speed del video per non far fermare lo scorrimento, o
massima per non farlo scorrere troppo velocemente.
185Capitolo 5
La scelta di una video-installazione interattiva risiede
principalmente nella volontà di coinvolgere lo spettatore
con la partecipazione attiva nella ricezione delle immagini
presentate e dell’argomento trattato, pertanto l’esposizione
di tale progetto trova un’ottima collocazione in n evento
pubblico quale “Le Murate”.
Non più la solita esposizione di lavori preconfezionati,
ma un’istallazione ideata e progettata per la fruizione in
tempo reale durante lo stesso evento che punta a stimolare
le reazioni strettamente personali di ogni fruitore, pur
mantenendo molti elementi rigidi e preconfezionati.
Tuttavia, proprio il fattore di evento pubblico aperto a
tutti i cittadini, dunque privo di una tematica ben precisa e
di un relativo target, ha visto l’aspetto ludico dell’esposizione
sopraffare i reali intenti comunicativi laddove pochi
interessati si sono esposti nel chiedere e/o scambiare opinioni
sull’effettivo senso dell’installazione. A dimostrazione di tale
fatto, vi è la successiva richiesta di un commerciante, gestore
del Red Garter, conosciuto disco-pub situato nel centro
storico di Firenze, il quale, presa visione dell’installazione,
ha avanzato una richiesta di replica proprio all’interno del
suddetto locale a semplici fini ludici e scenografici. Non vi
sono documentazioni effettive della replica dell’istallazione
in questo testo in quanto i lavori per la realizzazione sono
tuttora in corso, sebbene sarà presente nel cd allegato e
nella presentazione nel giorno di discussione della tesi.
186Capitolo 5
-Allestimento e conclusioni-
Dal punto di vista personale, ho deciso di partecipare
alla realizzazione dell’installazione “Total people scanning”
soprattutto per l’opportunità di cimentarmi con un progetto
reale, quindi per la relativa collaborazione con altre figure
professionali quali il prof. Giuseppe Ridolfi della Facoltà di
Architettura e Maurizio Baldini di Aida che dirigevano tutte
le operazioni. Il fatto di avere a che fare direttamente con gli
strumenti e le problematiche tipiche della realizzazione di
progetti simili oltre al mio ruolo di collaboratore subordinato
a decisioni superiori pur avendo un discreto margine creativo,
mi ha aiutato a crescere dal punto di vista professionale
molto di più di un qualsiasi progetto ipotetico strettamente
personale.
Per questo ringrazio tutti coloro che hanno reso possibile
tale opportunità, il progetto Milab.biz in particolare.
187Capitolo 5
RISORSE E CONOSCENZE
Con questo testo non pretendo di descrivere in maniera
esaustiva tutto ciò che riguarda l’interaction design, poichè
argomento vastissimo ed eterogeneo, tuttavia ho condotto
questa ricerca allo scopo primario di tracciare una linea
guida nelle conoscenze e nelle pratiche di tale ambito per
favorirne una corretta progettazione, consapevole di tutte
le sue possibilità, senza tralasciare il necessario background
culturale su cui essa dovrebbe fondarsi. Il linguaggio del
video digitale (oggetto della mia ricerca),in particolare
nell’interaction design, prende forma a partire da regole
procedurali che implicano conoscenze in diversi campi del
sapere, quindi imparare a conoscerne le origini tecnico-
artistiche, è il primo passo inevitabile per prodursi nella
successiva progettazione e/o sperimentazione. Pertanto il
194Conclusioni
Osservazioni conclusive
testo è composto per la maggior parte di una profonda ricerca
storico-artistica atta a evidenziare le evoluzioni dei diversi
artisti che si sono susseguiti nel corso degli anni, fino a quelli
più contemporanei, spesso tralasciati dai corsi universitari,
ma molto importanti in un ambito come questo, in costante
evoluzione, quindi con l’obbligo di un aggiornamento costante.
A tal proposito, proprio la contemporaneità di questa
evoluzione tecnologica/artistica, crea difficoltà nel
reperire materiale documentativo sulle opere o sugli artisti,
quindi gli strumenti disposizione attualmente, internet
su tutti, si rendono necessari e spesso più efficaci della
classica ricerca bibliografica, ecco infattitravare in fondo
al testo una webgrafia molto più ampia rispetto alla sua
corrispondente cartacea. La multimedialità dei moderni
mezzi di comunicazione, come le forme ipertestuali della
rete, amplificano le qualità delle conoscenze bibliografiche,
quindi offrono la vantaggiosissima possibilità di trovare un
supporto diretto attraverso le comunity da cui sfruttare le
reti “umane” oltre a quelle digitali, pertanto ho inserito una
pagina delle risorse alla fine di ogni paragrafo, in modo da
veicolare i potenziali approfondimenti da parte del lettore
in una forma più interattiva rispetto alla classica bilbiografia
a fine testo, comunque presente. Le risorse dunque diventano
un elemento fondamentale della mia ricerca, poichè una volta
aquisito il background culturale, diventano i primi spazi dove
scambiare informazioni e cimentarsi con problematiche reali.
195Conclusioni
SPERIMENTAZIONE
La sperimentazione dell’interaction design, è fondata sul
concetto di fusione tra techne e poiesis, tecnica e arte, da cui
ne deriva la nascita di nuovi mezzi di comunicazione multi-
sensoriale. questo processo ha aperto possibilità creative
notevoli, tuttavia è riconducibile a tre correnti concettuali
ben definite. La prima è l’indagine sperimentale sui processi
da cui l’immagine stessa prende forma (pratica esaltata nella
videoarte e nel cinema sperimentale) la seconda invece vede
la realtà connettersi con la costruzione immaginaria e onirica,
per essere pensata e catturata in determinati instanti da
reinventare (pratica più affine ai videoambienti), mentre le
ultime tendenze vertono verso l’istante unico ed irripetibile
della performance in tempo reale (vjing e live media).
A prescindere da quale strada si prenda o da quale soluzione
tecnica si adotti, realizzare un ambiente interattivo è
soprattutto coinvolgere chi vi partecipa come spettatore-
attore attraverso la presentazione di una visione non
convenzionale rispetto ad un determinato tema su cui
produrre nuovi scenari mediali. l’interaction design va
dunque considerato in primo luogo, come occasione
attraverso la quale permettere di integragire con il mezzo/i
di comunicazione in questione e di partecipare attivamente
allo scambio di informazioni evadendo dalla monotona forma
della ricezione assoluta, come per esempio accade per la
televsione.
196Conclusioni
TECNICA
Dal punto di vista tecnico, come ultimo passaggio verso la
realizzazione del progetto, diventa importante lo studio
dello spazio e dei suoi rapporti, in modo da poter giocare
sulle possibili contaminazioni tra spazi reali e spazi virtuali
prima ancora che sui contenuti concreti dell’opera.
PROSPETTIVE
Dal punto di vista commerciale, queste pratiche non hanno
una diffusione massificata, mentre in campo artistico sono
oggetto d’indagine da diverso tempo, tuttavia la crescenti
tecnologie e il loro conseguente abbassamento dei prezzi
stanno promuovendo soluzioni interattive anche negli studi
di design, pertanto l’acquisizione di queste conoscenze può
rivelarsi molto utile per un possibile sbocco professionale.
Questo testo dunque si presenta come un valido appoggio per
chi si affaccia per la prima volta nel mondo dell’interaction
design, in particolare per quanto riguarda la progettazione
di ambienti video.
197Conclusioni
ANDREA BALZOLA, ANNA MARIA MONTEVERDI, Le arti multimediali digitaliGarzanti, 2004
SANDRO BERNARDI, L’avventura del cinematografoMarsilio, Venezia 2007
BORDINI SILVIA, Arte ElettronicaGiunti, Milano 2004
FABIO CIRIFINO, PAOLO ROSA, STEFANO ROVEDA, LEONARDO SANGIORGI, Ambienti sensibili
Electa,, Milano 1999
BRUNO DI MARINO, Tracce, sguardi e altri pensieri Feltrinelli, Milano 2008
GILLO DORFLES, Ultime tendenze nell’arte d’oggi Feltrinelli, Milano 2005
VITTORIO FAGONE, L’immagine video Feltrinelli, Milano 1990
PONTUS HULTEN, JEAN TINGUELY, Una magia più forte della morteBompiani, Milano 1987
SANDRA LISCHI, Visioni elettroniche Marsilio, Venezia 2001
ARMANDO MENICACCI, EMANUELE QUINZ, La scena digitale Marsilio editori, Venezia 2001
LAURENT MIGNONNEAU, CORISTA SOMMERER, Interactive art researchSpringer Verlag, New York 2009
FRANCO PERELLI, Storia della scenografiaCarocci, Urbino 2006
HANS M. WINGLER, Il Bauhaustraduzione italiana a cura di Libero Sosio, Feltrinelli, Milano 1987
JOSEF SVOBODA, I segreti dello spazio teatraleUbulibri, Milano 1997
198Bibliografia
Bibliografia
ALTRI TESTI
Netmage - Piccola enciclopedia dell’immaginario tecnologico Link ProjectArnoldo Mondadori Editore, 2000
Politica e poetica dell’interaction design enviroment(tesi di laurea della Facoltà di Scienze Umanistiche dell’Università La Sapienza di Roma)Pasquale Direse, 2008
TONY CONRAD, The flicker, 1966
OSKAR FISCHINGER, Studium series, 1935
LEN LYE, A colour box, 1935 , Free radicals, 1958
MAN RAY, Emak Bakia, 1926
McLAREN , Dots, 1940 , Sinchronomy, 1965
GEORGE MELIES, L’homme à la tête en cahoutchouc, 1901
HANS RICHTER, Rythm 21, 1921
WALTER RUTTMANNOpus I, Opus II, 1921
DZIGA VERTOV, L’uomo con la macchina da presa, 1929
ANDY WARHOL, Sleep, 1963
199Filmografia
Filmografia
CAPITOLO 1http://julienmaire.ideenshop.net/
http://www.zuviel.tv/mikomikona.htmlhttp://www.carstennicolai.de/
http://portablepalace.com/
CAPITOLO 2http://www.hentschlager.info/
http://www.granularsynthesis.infohttp://www.claudiosinatti.com
http://www.pablovalbuena.com/http://lab-au.com/
CAPITOLO 3http://www.studioazzurro.com/http://www.interface.ufg.ac.at
http://www.exile.at/ko/http://www.troikaranch.org/
http://www.otolab.net/
CAPITOLO 4http://www.arduino.cc
http://hacknmod.com/hack/arduino-tutorial-how-to-introduction-guide http://www.ladyada.net/learn/arduino
http://www.robot-italy.comhttp://en.wikipedia.org/wiki/Motion_capture
http://www.phasespace.com http://www.xsens.com/
http://www.vicon.comhttp://www.autodesk.comhttp://musart.dist.unige.it
http://www.infomus.org http://biomobius.trilcentre.org/docs/EyesWeb%20GDE%20
http://www.cycling74.com (download, manuale, forum, tutorial)http://www.maxobjects.com (dowload librerie)
http://www.studiotoolz.net/ (dowload librerie)http://artsites.ucsc.edu/EMS/music/research/Lobjects.readme.html
http://ppooll.klingt.org/index.php/Main_Page http://virtual-sound.com/vs/
http://developer.apple.com/graphicsimaging/quartz/quartzcomposer.htmlhttp://www.quartzcompositions.com
http://quartzlab.blogspot.com
200Webgrafia
Webgrafia
http://www.troikatronix.com/isadora.html http://www.interno3.org/hof/luca%20ferro.pdf http://vvvv.org/ http://node08.vvvv.org http://www.lanvideosource.net/fondamenti_di_vvvv.pdfhttp://processing.org/ http://puredata.info/ http://www.puredata.it/http://www.soundesign.info/http://www.virtual-sound.com/sv/http://www.vjcentral.it/
CAPITOLO 5www2.mailab.biz DEFINIZIONIhttp://it.wikipedia.org/
PORTALI DEDICATI ALLE ARTI ELETTRONICHEhttp://www.digicult.it/http://www.neural.it/neural_ithttp://www.vidauxs.net
FESTIVAL ITALIANIhttp://www.netmage.ithttp://www.toshare.ithttp://www.dissonanze.ithttp://www.piombinoexperimenta.ithttp://www.arezzowave.com/elettrowave
FESTIVAL INTERNAZIONALIhttp://www.strp.nlhttp://www.cimatics.comhttp://www.sonicacts.comhttp://www.aec.athttp://www.transmediale.dehttp://www.elektrafestival.cahttp://www.mutek.cahttp://www.cybersonica.orghttp://www.sonar.es
201Webgrafia