http://www.wired.com/epicenter/2009/06/winning-teams-join-to-qualify-for-1-million-netflix-prize/
un team formato dalla coalizione di quattro gruppi, tra cui uno spinoff dell'università di Graz, ha raggiunto l'obiettivo del Netflix Prize, ossia di migliorare di almeno il 10% l'accuratezza dell'algoritmo di previsione delle preferenze personali sui film.
Il premio consiste in 1 milione di dollari.
La notizia suggerisce alcune riflessioni su modi alternativi di fare e finanziare la ricerca:
- le sfide a premio sono un mezzo efficace e sicuro di ottenere risultati e fare avanzare la tecnologia, molto più del finanziamento di progetti a priori, per diversi motivi:
- non c'è garanzia che i proponenti di un progetto siano i più adatti a svolgerlo e a portarlo a termine
- nei progetti si opta per un atteggiamento cooperativo anziché competitivo: la competizione avviene tra le proposte e non tra i risultati; chi finanzia tende a limitare la scelta ad un solo proponente, con alti rischi di insuccesso
- nei progetti c'è spesso una componente ideologica, con l'obiettivo di mostrare la validità dei propri approcci e si cade nella sindrome del "not invented here": nelle sfide l'atteggiamento è molto più pragmatico e si sfrutta qualunque tecnica utile
- nel caso di Netflix il team vincente è una combinazione di team, formatasi durante la sfida stessa: i team ai primi posti dell'anno precedente hanno deciso di unire gli sforzi per raggiungere più rapidamente l'obiettivo. Questo non succederebbe in progetti finanziati a priori, per diverse ragioni:
- ciascun proponente ritiene di essere il migliore, essendo già stato prescelto
- non c'è alcuno stimolo a fare meglio del minimo, in quanto il finanziamento è già assicurato
- il risultato è stato ottenuto cumulando scoperte di altri. Per lungo tempo i miglioramenti languivano, finché Simon Funk non ha introdotto l'uso della tecnica del Singular Value Decomposition, facendo fare un salto rilevante al punteggio. L'obbligo di rendere pubbliche le tecniche usate da ciascun team è stato determinante.
BTW. Simon Funk non è un ricercatore, ma uno sviluppatore software indipendente, che si è dedicato alla competizione nel suo tempo libero (http://portal.acm.org/citation.cfm?doid=1294301.1294311). - per chi propone la sfida, i rischi sono molto inferiori:
- si paga solo se si ottiene il risultato voluto
- il rischio di mettere su un team in casa per ottenere l'obiettivo è molto più alto: se non si dispone di ricercatori espertissimi nella materia, i tempi e i rischi di acquisire o di formare le competenze necessarie sono altissimi.
- oltre 40.000 persone hanno partecipato alla sfida, sia ricercatori professionisti che hobbisti. Per molti è stata un'esperienza unica per apprendere tecniche sconosciute e farsi delle competenze da sfruttare in altre occasioni. Una ricaduta in termini di diffusione delle conoscenze molto più ampia che non con i metodi tradizionali di diffusione scientifica.
- il risultato dovrebbe far riflettere chi misconosce l'importanza e il ruolo delle tecniche di apprendimento automatico nell'informatica attuale.
Il fenomeno di appaltare a esperti esterni attività di sviluppo avanzato si sta diffondendo ampiamente, ed è una forma di crowdsourcing, che alcuni chiamano "Prize economics", dove si offrono incentivi competitivi ad esterni come alternativa alla ricerca e sviluppo interna.
Alcune aziende si sono specializzate nell'organizzare tali attività.
Innocentive (http://www.innocentive.com/) ha creato il primo Open Innovation MarketPlace, dove fare incontrare la domanda e l'offerta per lo sviluppo di innovazioni. Chiunque abbia un problema complesso da risolvere lo propone come sfida ad una platea di oltre 160.000 esperti di tutti i settori.
All'altro estremo c'è Amazon Mechanical Turk (https://www.mturk.com/) su cui di solito vengono proposte attività più semplici, da svolgere in poco tempo, ma da parte di centinaia di persone.
In tempi di scarsità di risorse per la ricerca, vale la pena riflettere seriamente su modalità alternative a quelle tradizionali, modalità che possano incentivare sia chi finanzia (garantendogli i risultati), sia chi fa ricerca (a mettersi maggiormente in gioco).
Molte conferenze internazionali organizzano già competizioni su obiettivi tecnico-scientifici: basterebbe che le agenzie di finanziamento contribuissero fondi per assegnare premi in queste competizioni, riducendo i finanziamenti a pioggia.
6 comments:
Concordo Beppe, su tutto.
L'idea del crowd mi "assomiglia" anche per altre cose...
Le imprese ad esempio, secondo me non ha più senso che siano fatte da 100 persone tutte nello stesso posto, meglio in 100 posti diversi semplicemente collegate... costo zero di struttura, maggiori "diversità" (e Darwin docet)...
Le comunità virtuali (e la stessa wikipedia) sono un bell'esempio di come si possa fare cultura in crowd...
in pratica, hanno avuto 40.000 persone che hanno lavorato per loro al prezzo di 1 M$. Di queste, qualche decina è stata pagata qualche decina di migliaia di dollari (per quanti mesi di lavoro?). Per gli altri 39.900 e passa, è stata "un'ottima esperienza". Come sistema di finanziamento, dal punto di vista di quei 39.000, mi sembra discutibile...
1) Nessuno dei 39 mila è stato obbligato a partecipare alla competizione.
Sei non sei sicuro di produrre qualcosa che possa almeno competere, non partecipi.
2) Dubito che quei 39 mila abbiano detto "peccato abbiamo perso" ed abbiano buttato tutto il lavoro fatto. E' comunque know-how che riutilizzeranno in qualche altro modo.
Specie se pur non avendo vinto, hanno fatto un ottimo lavoro.
Valerio
quello che stavo cercando, grazie
leggere l'intero blog, pretty good
quello che stavo cercando, grazie
Post a Comment