Didoo

HANDImatica 2010, impressioni

Oggi sono stato a HANDImatica, per presentare il mio talk “Senior 2.0/3.0” e il primo impatto con questa manifestazione (di nicchia, essendo specializzata) è stato bellissimo.

Era stranissimo vedere il vero user-centered design in azione, quello applicato al mondo delle disabilità, quello per cui il design di una interfaccia software, di uno strumento assistivo, di una carrozzina o un sistema di puntamento è fatto non solo con l’utente ma proprio su misura dell’utente, della persona che dovrà utilizzarlo (nel vero senso della parola: ogni disabilità è diversa dalle altre, cambia da persona a persona).

Sul palco prima di me sono saliti Francesco Ganzaroli e Alberto Mingardi (due esperti del dominio, come direbbe Brandolini) che hanno presentato diverse riflessioni e esperienze sull’uso di “interfacce” (mai parola è stata più adatta) che permettono la comunicazione con persone con gravi patologie motorie (malati di SLA, principalmente). Queste interfacce non sono altro che lavagne con applicate le lettere dell’alfabeto (o nei casi più elaborati concetti o fonemi) in cui il paziente/il malato non fa altro che dirigere lo sguardo nelle diverse aree per identificare i gruppi di lettere prima e le singole lettere poi, per andare via via a comporre parole e frasi, che vengono così “lette” dalla persona che regge la lavagna (la versione tecnologica avanzata di queste lavagne è un monitor in grado di riconoscere il movimento oculare). Ebbene, vi assicuro che le affinità fra questo tipo di problematiche e quelle di chi si occupa di interaction design non sono poi così diverse, anzi sono stati numerosi i punti di sovrapposizione e altrettanto numerosi quelli di possibile scambio.

Al termine di queste due presentazioni, e dopo aver visitato velocemente alcuni stand dell’esposizione, confesso che la mia esaltazione verso questo mondo era notevole, con domande che si affacciavano alla mente tipo “chissà se nel mio futuro non ci sia proprio uno spazio / un destino in questo ambito” e la sensazione che qui fare UCD e applicare le proprie capacità voglia davvero dire “rendere migliore la vita di qualcuno”, abbia davvero un senso pratico e molto tangibile (misurabile, direbbero altri) che vada al di là della semplice speculazione intellettuale.

Dopo la pausa caffè è stata la mia volta. Una presentazione non molto brillante (abituato come sono ai barcamp, trovarmi SOPRA un palco, ingessato dietro un tavolo e un microfono e con una platea poco propensa oall’interazione non è stato facile) ma comunque sono riuscito a stare nel tempo prestabilito e visto che le slide (e le cose da dire) erano molte già questo è un risultato. Non so se sono riuscito a trasmettere il “messaggio” che mi ero prefissato, ma ci ho provato. Anche perché ho come l’impressione che tematiche come il design della user-experience – non solo la semplice “usabilità” di un software/device – siano ancora molto lontane (siano esse studio, riflessione o applicazione) in questo particolare mondo. Proprio qui, dove potrebbero portare i maggiori benefici… è un peccato! Quindi in alcuni momenti mi sono sentito per certi versi un marziano, per altri un “disabile” (ero io quello che non “comprendeva” quello che gli stavano dicendo o chiedendo!).

Da lì in poi le presentazioni sono (francamente) andate un po’ in calando.

Mario Conci ha presentato un progetto sperimentale della Provincia di Trento per la realizzazione di un dispositivo touch denominato MobiTable, volto all’inclusione sociale degli anziani. Se la partenza del progetto a mio avviso è stata ottima, utilizzando metodologie di UCD con l’utilizzo di personas, scenari, focus-group con utenti volontari (sono stati chiamati i “pionieri”) ecc. la mia impressione è stata che la montagna abbia partorito un topolino (o un elefante, viste le dimensioni del prototipo!). E anche in questo caso, l’interfaccia è quanto di più lontano da quel dovrebbe essere per questo tipo di applicazione (per non parlare di ergonomia: il device pesa almeno una decina di chili, e l’anziano per usarlo deve rimanere in piedi!).

Enrico Neri ha poi presentato Eldy, un software che – a detta di chi l’ha progettato – dovrebbe facilitare l’accesso al computer per le persone, anche se credo che in realtà l’obiettivo dovrebbe essere diverso, ovvero insegnare alle persone a fare delle cose con gli strumenti, non a usare gli strumenti stessi (che sono appunto mezzo, e non scopo: lo scopo sono le persone!).
Comunque, i numeri presentati sono sicuramente quelli di una grossa base di utenti (quanto queste cifre siano frutto di effettivo successo e quanto invece di una distribuzione a pioggia da parte di regioni, province e altri enti, non è chiaro) anche se – come ho detto anche nella mia relazione, e anche loro stessi ammettono – ho molte perplessità sul design dell’interfaccia per questo software, a mio avviso troppo legato a paradigmi e metafore che sono propri dell’esperienza di chi un computer già lo usa, quindi poco adatte per chi invece deve ancora imparare ad usarlo.

Il seminario è stato concluso da due interventi, il primo di Gian Carlo Giuliani che ha presentato la propria esperienza condotta all’interno di una casa di cura usando un computer touch-screen con malati di Alzheimer (a tratti interessante ma tutto sommato già superato ancora prima di nascere) ed un secondo intervento di cui per carità di patria tacerò!

Terminato il seminario, ho avuto modo di visitare ancora qualche stand. Fra questi uno che permetteva ai “normo-dotati” di provare l’esperienza di disabilità usando degli strumenti appositi di simulazione/limitazione (ed è stato quello che mi ha fatto toccare con mano e in prima persona cosa vuol dire essere handicappati, e vi assicuro è qualcosa che fa davvero paura, non saprei esprimere altrimenti quello che ho provato) mentre in un altro Simone Soria, un ragazzo di 30 anni paralizzato su una carrozzella, mi ha mostrato come è possibile, con un apposito software che sta personalmente sviluppando (è un ingegnere, laureato con il massimo dei voti) controllare i movimenti del mouse sullo schermo attraverso appositi movimenti alto-basso/destra-sinistra della testa (o di altre parti del corpo) associandoli ad un sistema di riconoscimento facciale. Vedere tutto il lavoro necessario per comporre una frase di 10 caratteri in un minuto, quando io impiego un paio di secondi a digitarla sulla mia tastiera, ha fatto un certo effetto.

In conclusione, sicuramente è stata un’esperienza molto positiva e di questo ringrazio Nicola Gencarelli di Asphi Italia che mi ha invitato a partecipare. Sicuramente non mancherò alle prossime edizioni, magari stavolta come spettatore così avrò sicuramente più tempo per visitare i numerosi stand, e fermarmi ad imparare qualcosa da ognuno di essi. E vi assicuro, c’era molto moltissimo da imparare!

Go to blog index