altre destinazioni

ultimi post

ultimi commenti

tag principali

categorie

archivi

powered by

  • WPFrontman + WP

friends

copyright

  • © 2004-2011
    Ludovico Magnocavallo
    tutti i diritti riservati

Parole sante

25 ottobre 2007

12 commenti

Somewhere along the line
(far before the web ever showed up) the notion of “information” was subtly
corrupted; it shifted from from “organized, meaingful data” to simply “media.”
The difference between the two is subtle (unless you watch local TV news in
which case you’re painfully aware of it) but this sort of thinking has had a big
impact on the web’s development. The result is lots of time and effort and money
spent on developing media platforms and
very little spent on the much more important task of creating information platforms.

Parole sante. Forse invece di ricercare (o, peggio, teorizzare) social network e communities a tutti i costi, sarebbe meglio chiedersi quali sono contenuti e dati originali, e nel caso come organizzarli e visualizzarli per permettere agli utenti di mine for data. Le communities poi si creano da sole. Nel panino ci vuole il salame, altrimenti non è un panino (anche se il maiale avrebbe qualcosa da ridire in proposito).

Quattro nove

2 aprile 2007

14 commenti

Uno dei supposti punti di forza dei mainframe IBM (si, esistono ancora) è l’alta affidabilità, i famosi “quattro nove”, o 99.99% di disponibilità. Nella mia esperienza però il mainframe, come tutti i marchingegni basati su hardware e soprattutto software, non è immune da catastrofi, che spesso richiedono operazioni di ripristino ben più pesanti di quelle cui siamo abituati noialtri con le nostre “macchinette”.

Lo spunto per questa piccola tirata me l’ha dato la pubblicazione dei downtime dei siti più popolari secondo Alexa, effettuata in base alle misurazioni di Pingdom. Trasformando i periodi di downtime nell’anno solare in percentuale, possiamo renderci conto che i “quattro nove” non sono una prerogativa del mainframe, ma possono tranquillamente (e in maniera molto più semplice ed economica) essere raggiunti con architetture moderne e agili.

I patiti del mainframe a questo punto obietteranno che questi “sono solo siti web”, non rendendosi conto che tra questi ci sono Ebay, che l’anno scorso con il sistema in questione ha fatto 6 miliardi di dollari di revenues, o Amazon che l’anno scorso dal suo “sitarello” ha venduto prodotti per quasi 11 miliardi di dollari. Ecco la classifica rielaborata.

    sito            % uptime
---------------------------------
#1   yahoo.com               100.0           
#2   comcast.net             99.9994292237   
#3   aol.com                 99.9994292237   
#4   ebay.com                99.9988584475   
#5   google.com              99.9986681887   
#6   go.com                  99.99847793     
#7   microsoft.com           99.9975266362   
#8   amazon.com              99.9960045662   
#9   cnn.com                 99.9958143075   
#10  facebook.com            99.9952435312   
#11  imdb.com                99.9944824962   
#12  flickr.com              99.9942922374   
#13  myspace.com             99.9885844749   
#14  craigslist.org          99.9868721461   
#15  photobucket.com         99.9842085236   
#16  live.com                99.9794520548   
#17  wikipedia.org           99.9727929985   
#18  msn.com                 99.9686073059   
#19  youtube.com             99.9459665145   
#20  blogger.com             99.9453957382   

Aggiornamento: La lista era ordinata in maniera sbagliata, grazie a Carlo per aver beccato il bug.

Se volete smentirlo voi...

21 marzo 2007

20 commenti

“In Italia non sono molti a conoscere i nuovi linguaggi, per questo devo rivolgermi a coder all’estero, con tutti i problemi gestionali che ne conseguono.”

Se anche a voi fa (parecchio) innervosire essere definiti coder e mosche bianche, fatevi sentire. E poi magari spiegategli, se avete tempo, che le applicazioni web moderne e di successo di solito sono fatte da chi sa programmare, non da chi i programmatori li compra dove costano meno…

Spigolature / 18

29 dicembre 2006

3 commenti

Opacità delle risorse. La pulizia periodica della Inbox fa riemergere un messaggio dove Roy Fielding, teorico del ReST e papà del protocollo HTTP/1.1, fa un po’ di chiarezza sull’opacità delle risorse: “[...] RESTful applications are, at all times,
encouraged to use human-meaningful, hierarchical identifiers in order
to maximize the serendipitous use of the information beyond what is
anticipated by the original application. [...]“
Utile per chi deve sviluppare delle API per dare accesso a un servizio web.

Scaricateli finchè potete. Sto parlando delle fantastiche compilation di Kalil Wilson, una vera e propria introduzione musicale ai principali generi della musica africana e caraibica, dall’highlife alla rumba passando per salsa, soukous e calipso. I miei preferiti? Golden Days Highlife (No. 9) e Ambiance à Congo (No. 1), appena pubblicato.

Scaricateli finchè potete / 2. Meno ecumenico ma non per questo meno interessante il blog di Steve Ntwiga Mugiri, che pubblica alcuni pezzi d’autore conditi da racconti e considerazioni personali. Tra i brani che ho avuto il tempo di ascoltare, la palma d’oro per ora va a Christina dei Maroon Commandos, Mrema di Remy Ongala e la Orchestre Super Matimila, e l’imperdibile Sina Makosa dei Les Wanyika. Qui tutti i post musicali di Steve, ricordatevi di lasciare un commento se la musica vi piace.

Scaricateli finchè potete / 3. Se la musica africana vi lascia un po’ freddini, provate a fare un salto su Breath of Life, dove Kalamu e Mtume ya Salaam prongono pezzi splendidi come I’ll Take You There degli Staple Singers e Simply Beautiful di Queen Latifah e Al Green.

Spigolature / 8

18 ottobre 2006

2 commenti

Contenuti per salsiccie. John Udell cita un bell’editoriale di Ephraim Schwarts su InfoWorld, secondo cui l’acquisizione di YouTube è il vero segnale che Internet è diventata mainstream, non nel senso che è ormai una parte indispensabile della vita di centinaia di milioni di persone, ma che il motore propulsivo della rete non è più molto dissimile da quello dei media istituzionali e si basa sul consenso, la diffusione di massa, e quindi l’appiattimento dei contenuti. Udell è sempre stato un fine osservatore delle evoluzioni tecnologiche fin da quando scriveva per Byte, probabilmente ci sta beccando anche questa volta.

Datemi un editor! Larry Sanger, uno dei fondatori di Wikipedia, sta lanciando in versione alpha Citizendum, un clone (forse, più o meno) di Wikipedia dove è necessario registrarsi, e i contenuti sono sottoposti al vaglio di un gruppo editoriale prima della pubblicazione. Non so se il progetto avrà successo (secondo me non molto, troppo tardi e Wikipedia è troppo diffusa), ma è interessante notare comunque le analogie con quanto scritto sopra a proposito della qualità dei contenuti, e come sia sempre più difficile, anzi impossibile, avere dati di qualità senza un filtro ed un controllo. Lo stesso motivo per cui la classifica dei blog (anzi, le classifiche), a differenza di altre che l’hanno preceduta ha un gruppo di persone che controllano ogni nuovo inserimento. La notizia era anche in prima pagina sul Corriere di oggi, come cambiano i tempi…

Lo Zen e la scalabilità delle applicazioni web

29 marzo 2006

4 commenti

Un titolo degno di Enrica per consigliarvi The Adventures Of Scaling, una serie di post sull’ottimizzazione di eins.de, sito tedesco con un buon traffico (>1m di pageviews giornaliere) recentemente riscritto in Ruby on Rails.

Un po’ di scienza, un po’ di black magic e tanto buonsenso, questi gli ingredienti indispensabili per ottimizzare architetture che sono semplici sono in apparenza. Come era prevedibile Rails è lento, la complessità architetturale (proxy, load balancers, ecc.) e la stratificazione del codice ammazzano le performance, e le ottimizzazioni più consistenti sono a livello di base dati (uno dei motivi per cui non mi sono mai piaciuti gli ORM).

ReST anno 1997

24 febbraio 2006

Balle spaziali

18 novembre 2005

4 commenti

Non per scatenare un altro vespaio, ma nei commenti al mio ultimo post emergono dati di traffico per i principali gruppi editoriali italiani che mi sanno tanto di bufala: i 100 milioni suggeriti da Massimo per il Corriere, o i 228 scovati da Luca per il gruppo Espresso mi sembrano decisamente poco realistici.

I conti sono presto fatti: l’ultimo comunicato stampa di RCS riporta una media di 3.5 milioni di visitatori per il Corriere. Pur senza tenere conto di spider e bot vari (che alzano il numero di utenti) e considerando realistici i dati di page view per utente di Alexa, il Corriere dovrebbe fare circa 20 milioni di page view al mese. Usando lo stesso principio, Repubblica dovrebbe fare sui 30 milioni invece di 228, cifra che darebbe una assurda e decisamente inverosimile media di 44 e rotte pagine viste al giorno per utente…

Cifre più alte di un ordine di grandezza rispetto a quelle registrate dai nostri nanopublisher, ma credo che se potessimo ottenere un costo unitario per page view dividendo investimenti e costi di esercizio per il totale di pagine viste, scopriremmo che le page view dei nanopublisher costano un millessimo di quelle dei loro fratelli maggiori.