
Cos’è un algoritmo? Chi tra voi si occupa anche solo vagamente di informatica sa bene di cosa stiamo parlando, ma per i profani diamo due parole di spiegazione: semplicemente, un algoritmo è una soluzione ad un problema, articolata attraverso un numero finito di passaggi.
Più in particolare, in campo informatico un algoritmo è sostanzialmente una formula matematica, scritta in un determinato linguaggio di programmazione, che permette di ottenere dei risultati ad un problema. Per fare un esempio banale, se noi abbiamo un insieme di parole, un algoritmo può consentirci di metterle in ordine alfabetico, mentre un altro di ordinarle in base alla lunghezza e così via.
[wpzon keywords=”algoritmi” sindex=”Books” sort=”relevancerank” listing=”6″ country=”it” descr=”0″ col=”3″]Nel campo della moderna informatica, però, gli algoritmi sono molto più complessi di così: regolano, ad esempio, il funzionamento di un motore di ricerca o, nei software di organizzazione fotografica, il riconoscimento dei volti delle persone, tanto che vengono migliorati di anno in anno e ormai segnano direttamente o indirettamente gran parte della nostra vita.
Vediamo allora quali sono gli algoritmi più famosi usati sul web oggigiorno, cercando di spiegarne a grandi linee anche il funzionamento (almeno per quanto è possibile sapere).
Indice
La ricerca di Google
Alla base del motore di ricerca più potente del mondo
C’è stato un tempo – e stiamo parlando della fine degli anni Novanta – in cui Google non esisteva e le ricerche sul web si effettuavano tramite una miriade di altri motori di ricerca: qualcuno di sicuro ricorderà, magari con un piccolo sforzo di memoria, Excite, Lycos, AltaVista o la vecchia versione di Yahoo!, e come questi siti monopolizzassero le nostre prime, timide ricerche sul web.
Poi, tra il 1998 e il 2000, ha fatto la sua comparsa il motore di Larry Page e Sergey Brin e di colpo abbiamo abbandonato tutti i portali di cui ci servivamo prima, affidandoci in toto al servizio di Mountain View. Il motivo di questo clamoroso (e inarrestabile) cambio di abitudini sta nella potenza dell’algoritmo che Google presentò in quei primi mesi, un algoritmo che funzionava infinitamente meglio di quelli di tutti i concorrenti, dando risultati pertinenti, capendo al volo che cosa cercavi e catalogando rapidamente tutto il web.
Leggi anche: Le cinque più interessanti novità del Google I/O 2014 secondo i nostri lettori
[wpzon keywords=”google” sindex=”Books” sort=”relevancerank” listing=”6″ country=”it” descr=”0″ col=”3″]
Nel corso degli anni quell’algoritmo si è ovviamente perfezionato, grazie ai numerosi aggiornamenti (chiamati Panda, Penguin e Hummingbird, tra gli altri) che l’azienda ha approntato per perfezionare i risultati, bloccare lo spam e ostacolare tutte le tecniche che permettevano indebitamente di “scalare” la classifica dei risultati; ovviamente, però, la composizione esatta dell’algoritmo rimane un segreto custodito gelosamente perché rappresenta il core business dell’azienda.
Di sicuro, si tratta di un algoritmo complesso che tiene conto della semantica (è in grado di analizzare una serie di sinonimi o parole correlate a quelle che avete cercato), dell’affidabilità dei siti segnalati, dei comportamenti pregressi sia degli utenti che hanno visitato quel sito sia dello stesso autore della ricerca, e che filtra i risultati anche sulla base della provenienza geografica della ricerca e dal tipo di dispositivo da cui essa è partita.
Il feed di Facebook
Il social network, la nuova frontiera dell’ordinamento
Se gli algoritmi dei motori di ricerca sono stati (e rimangono ancora oggi) i primi e più importanti del web, negli ultimi anni hanno acquisito grande visibilità quelli dei vari social network, che premiano certi post e ne penalizzano altri, dando un’effimera notorietà ad alcuni e condannando altri all’oblio.
Certo, mentre con Google ci occupavamo di curiosità, ricerche ed affari, qui stiamo affrontando un tema molto più sdrucciolevole come la fama o, se vogliamo, la vanità personale, ma mentre i siti web sono affare di pochi, la presenza sui social è ormai una questione che riguarda tutti, quindi non è raro incontrare sistemi, metodi e utenti che provano ad arrivare al “successo” – se così possiamo chiamarlo – tramite una maggior visibilità.
[wpzon keywords=”facebook” sindex=”Books” sort=”relevancerank” listing=”6″ country=”it” descr=”0″ col=”3″]Ma come funziona il feed di Facebook? Come fa il sito di Mark Zuckerberg a scegliere quali post mettere nelle prime posizioni della pagina e quali invece nascondere ai più? Secondo i dati a nostra disposizione, un utente medio del social network potrebbe veder comparire sulla propria pagina iniziale circa 1.500 post di vario tipo, ma solo il 20% di questi appare effettivamente nel feed; e i post che compaiono sono quelli che arrivano da utenti con i quali abbiamo maggiori interazioni, che sono strutturati secondo la tipologia che normalmente più ci aggrada (foto, testo, link ecc.) e che hanno già ottenuto un certo numero di apprezzamenti da parte di altri utenti che condividono i nostri stessi gusti o interessi.
Inoltre, negli ultimi tempi anche Facebook ha implementato delle migliorie da un lato per bloccare lo spam o quei post fatti apposta per attirare i like con tecniche ritenute fraudolente, dall’altro per invece favorire almeno in parte i contenuti sponsorizzati, quelli cioè per i quali Facebook riceve un compenso in denaro.
Gli algoritmi della NSA
Le rivelazioni di Edward Snowden
Edward Snowden è stato sicuramente uno dei personaggi dell’ultimo anno: le sue rivelazioni sull’NSA – quella che un tempo da noi veniva chiamata Sicurezza Nazionale – e sulla CIA hanno infatti aperto una finestra ampia e interessante sui sistemi che le agenzie governative americane usano per controllare la popolazione mondiale.
A quanto è dato sapere, infatti, l’NSA in particolare ha usato per anni dei complessi algoritmi per monitorare una quantità pressoché infinita di informazioni, che andava dalle e-mail alle telefonate, dalle localizzazioni geografiche al riconoscimento facciale nelle fotografie.
Leggi anche: Le cinque persone più influenti al mondo secondo i nostri lettori
[wpzon keywords=”edward snowden” sindex=”Books” sort=”relevancerank” listing=”3″ country=”it” descr=”0″ col=”3″] [wpzon keywords=”edward snowden” sindex=”ForeignBooks” sort=”relevancerank” listing=”3″ country=”it” descr=”0″ col=”3″]
Una mole talmente imponente di informazioni che non poteva essere affidata a persone in carne e ossa, che non avevano umanamente i mezzi per gestire tutti quei dati, ma appunto doveva per forza di cose esser gestita da computer, che catalogavano le informazioni – aggirando così anche i divieti di legge, che riguardano documenti manipolati da esseri umani – e, solo nei casi in cui queste informazioni rispondevano a certi requisiti di particolare pericolosità, segnalavano i dati agli addetti preposti. Inoltre, particolarmente rilevanti erano anche gli algoritmi di crittografia che venivano usati per proteggere i file in vari modi.
Ora tutto questo sta, speriamo, per cambiare: l’amministrazione Obama, travolta in un certo senso dallo scandalo datagate, ha varato un progetto di legge che proibirà alla NSA di controllare direttamente i dati telefonici dei cittadini americani e stranieri; essi rimarranno invece in mano alle compagnie telefoniche, che potranno fornirli alle agenzie di sicurezza solo nel caso di un ordine del giudice dovuto a situazioni che si ritengono siano direttamente collegate ad attività terroristiche, come d’altra parte avviene in tutto il resto del mondo occidentale.
I consigli di Amazon
La pubblicità nell’era del web 2.0
La ricerca e gli investimenti – nel campo degli algoritmi come di ogni altro aspetto della nostra vita quotidiana – vanno preferibilmente dove sono i soldi, e non è quindi casuale che tra gli algoritmi più usati oggigiorno sul web ci siano quelli che riguardano i “consigli per gli acquisti”, sorta di spot personalizzati che si adattano ai nostri gusti e alle nostre preferenze.
Forse il primo a intraprendere questa strada con grande decisione è stato Amazon, il colosso della vendita online, che riempie ancora oggi le proprie pagine e le proprie newsletter di consigli basati sugli acquisti passati e su quelli fatti da persone che sembrano avere gli stessi gusti del cliente in questione; ma più in generale il sempre più pervasivo uso dei cookies – che alcuni paesi stanno non a caso regolamentando – ha ormai reso la pubblicità online una pratica mirata ed efficace.
Leggi anche: I cinque e-reader più venduti in Italia e nel mondo
[wpzon keywords=”amazon” sindex=”Electronics” sort=”relevancerank” listing=”6″ country=”it” descr=”0″ col=”3″]
Da questo punto di vista, non vanno dimenticati gli algoritmi usati dai social network di settore – come quelli degli amanti dei libri, della musica, dei film e così via: ricordate quanto scalpore fece a suo tempo Last.fm, implementando dei servizi di confronto tra gli ascolti degli utenti che oggi sono usati da qualsiasi sistema di streaming audio e video? – per consigliare agli iscritti sempre nuove proposte basate sulle preferenze di persone che hanno gli stessi gusti.
La nuova frontiera, su cui i grandi colossi di vendita si stanno non a caso interrogando, è ora riuscire a individuare quegli acquisti “effettuati per conto di altri”, che finiscono per inficiare i consigli: ad esempio se ci troviamo sotto Natale a comprare una serie di regali per la mamma, la nipotina, il cuginetto e così via potremmo poi per mesi vederci consigliate bambole, pentole e quant’altro di cui a noi in realtà non interessa assolutamente nulla; l’idea di fondo è quindi quella di riuscire a individuare con precisione quegli acquisti “fuori range” ed escluderli dai dati raccolti.
La compressione MP3
L’algoritmo che ha rivoluzionato l’industria discografica e non solo
Chiudiamo con quello che forse è uno degli algoritmi più vetusti del web eppure ancora di fondamentale importanza per buona parte del suo traffico: l’algoritmo di compressione dei file MP3, importante non solo in sé e per sé, ma anche perché ha dato il via all’idea di poter comprimere i contenuti (audio, video e fotografici).
Nel caso dell’MP3, esso fu elaborato tra la fine degli anni Ottanta e i primi anni Novanta da un gruppo di lavoro che operava in Germania grazie a fondi di ricerca europei e coordinato dall’italiano Leonardo Chiariglione, un ingegnere piemontese che per anni è stato membro anche del centro ricerche di Telecom Italia, oltre che coordinatore di vari progetti della UE; si tratta di un algoritmo di compressione lossy, che cioè perde una parte della qualità della registrazione originale (solo parzialmente percettibile all’orecchio umano) con però una drastica riduzione della quantità di dati richiesta, rendendo i file audio agili, facilmente trasportabili e facilmente scaricabili.
Leggi anche: Cinque siti per scaricare musica gratis legalmente
[wpzon keywords=”mp3″ sindex=”Electronics” sort=”relevancerank” listing=”6″ country=”it” descr=”0″ col=”3″]
Un ulteriore parametro di compressione è inoltre dato dal bit rate: a 128 kbps, infatti, l’orecchio umano percepisce senza troppe difficoltà la perdita di qualità rispetto a un CD, mentre con 256 kbps questa perdita non è più così facilmente individuabile, tanto è vero che generalmente si parla di file ad alta fedeltà.
Se da un lato l’imporsi dell’MP3 ha portato alcuni puristi a cercare di recuperare la qualità audio perduta con file FLAC o con player come Pono, dall’altro l’emergere di questi algoritmi di compressione ha fatto involontariamente la fortuna dei servizi di filesharing legali o illegali che fossero, da Napster a eMule, dall’americano Netflix a Spotify.