giovedì 23 luglio 2009

Google vorrebbe entrare nel futuro, ma ci riuscirà?

Marissa Meyer, vicepresidente Google e "deus ex machina della grande G", ci parla delle tendenze di ricerca negli ambiti dell'Information Retrieval (il "solito" google search).

Semantica e (separatamente) sensori integrati nei gadget, sono le due parole chiave (vedi l'articolo di punto informatico meyer-futuro-del-search-tempo-reale ).

La questione semantica è un vecchio problema, vecchio come il mondo. Mayer ci si tiene prudentemente lontano. "Non andiamo sulla semantica, ma su aspetti che sembrano semantici senza esserlo". Google ha sempre funzionato così, e in effetti l'approccio è corretto. Il metodo attuale di ricerca che è fondato sul ranking (popolarità) dei link, non è semantico e - come tutti sappiamo - funziona.

Ma non si può sempre procedere così, purtroppo. Uno dei punti deboli di Google Search in questo momento è ad esempio la ricerca sulle immagini: nell'azienda di Cupertino stanno cercando di introdurre timidamente metodi diversi di aggregazione delle immagini, ad esempio usando un algortimo di ricerca per similarità. Funziona a volte. A volte no. (prova: similar-images.googlelabs.com )
Le ragioni sono molte, e in un articolo separato avrò l'occasione di indicare come e perchè capita questo e cosa si intende per ricerca semantica e ricerca non semantica.

Interessante anche osservare che Microsoft con Natal (ma anche in Windows 7), la Nintendo con Wii, ma anche Google si siano accorti e pongano l'accento sull'uso di sensori per interagire in modo elettivo con una macchina.

Sensori e semantica sono il punto su cui noi ( Motion Studio Project (*) ) lavoriamo da due anni ormai, anticipando questo trend e questa visione. E in effetti molte cose si possono dire e fare in merito, ma vorrei soffermarmi su un punto.

I sensori, certi sensori, come quelli indossabili, hanno un pregio: possono catturare il tipo, l'attitudine, le caratteristiche, il mood e le specificità personali del comportamento o del movimento umano. Il tipo, la qualità e il modo di interagire.
A differenza del passato qui è la macchina, il computer, che dai segnali ricavati dai sensori, indossati o nell'ambiente, deve comprendere il comportamento della persona e agire: non l'uomo che deve apprendere l'uso di un device (la tastiera, il mouse, etc.) e di un artefatto (i comandi, le finestre, i menù, un linguaggio di programmazione o scripting) per interagire con la macchina. Spesso alle sue condizioni.

Ma quando si parla di capire il comportamento di una persona a partire dai dati letti da un sensore, in modo intelligente e automatico, si parla forzosamente di machine learning e... di semantica. E qui sono i leoni.

Benvenuta nel problema, Google :-)
E benvenuta nel futuro.

St.Pinardi

(*) Diritti riservati

Nessun commento:

Tip

SM