Visualizzazione post con etichetta Google. Mostra tutti i post
Visualizzazione post con etichetta Google. Mostra tutti i post

22.4.15

MobileGeddon, come funziona il nuovo algoritmo di Google

Se segui le notizie del mondo Google avrai sentito che l’usabilità da dispositivi mobili da oggi sarà un fattore di posizionamento: ecco cosa cambia
da Wired
Ormai lo sappiamo tutti e ne abbiamo già parlato anche qui su Wired.it: le ricerche da mobile hanno superato in tutto il mondo le ricerche da desktop, tutti noi utilizziamo ormai quotidianamente lo smartphone per le nostre ricerche e Google per offrire risultati di ricerca di qualità deve assicurarsi che le pagine siano visibili per gli utenti che eseguono la ricerca.
Per questo motivo di recente abbiamo annunciato che i risultati delle ricerche eseguite da mobile considereranno l’ottimizzazione per dispositivi mobili come un fattore di posizionamento. Questo significa che Google favorirà nel posizionamento i siti ottimizzati e questo permetterà agli utenti di ottenere una migliore esperienza di navigazione da dispositivi mobili questo non avrà influenza sulle ricerche da desktop.
Google riconoscerà se il tuo sito è mobile friendly grazie a diverse caratteristiche che abbiamo identificato come necessarie per l’usabilità dei siti web da mobile, come ad esempio l’impostazione della viewport corretta, la presenza di contenuti non visibili da dispositivi mobili, o la presenza di link troppo piccoli e ravvicinati per essere toccati su uno schermo touch.
Se ancora non sei sicuro che il tuo sito sia mobile friendly utilizza il test di compatibilità e identifica quali cose puoi migliorare per soddisfare i tuoi utenti.
Per supportare chi ha un sito web in questa transizione abbiamo reso disponibili guide per l’ottimizzazione e lo strumento di usabilità sui dispositivi mobili grazie a questo strumento potrai capire come Google vede il tuo sito e quali azioni sono necessarie per rendere il tuo sito accessibile per gli utenti connessi da smartphone.
Se hai bisogno di supporto nel rendere il tuo sito mobile-friendly chiedi l’aiuto di un un esperto nel Forum di assistenza o sulla community ufficiale.

5.12.14

Stephen Hawking si aggiorna

Alfonso Maruccia  (Punto Informatico)

O, per meglio dire, aggiorna l'apparato informatico che gli permette di comunicare con il mondo e lavorare alle sue ricerche. Il pluri-premiato fisico teorico teme l'intelligenza artificiale, e vorrebbe rendersi temibile in un film di 007

Intel ha aggiornato l'apparato di comunicazione a disposizione del dottor Stephen Hawking, ricercatore, divulgatore e autore di best seller che potrà ora lavorare con maggior lena, esprimere più velocemente i propri pensieri con il pubblico e comunicare meglio con la famiglia.


Il sistema che Intel ha personalizzato sulle esigenze del dottor Hawking - come d'altronde la corporation fa da 14 anni a questa parte - si chiama ACAT (Assistive Context Aware Toolkit), ed è stato messo a punto in collaborazione con lo stesso ricercatore nel corso degli ultimi 3 anni.

ACAT prevede la presenza di un sensore a infrarossi montato sugli occhiali dello scienziato, deputato alla lettura del movimento dei muscoli delle guance cioè dell'unico mezzo di comunicazione a disposizione di Hawking, per il resto completamente paralizzato dalla sclerosi laterale amiotrofica (SLA) che l'ha colpito in giovane età.
Con ACAT la velocità di comunicazione - cioè di traduzione dei movimenti dei muscoli in lettere e parole - raddoppia, mentre i compiti informatici più comuni come la ricerca di un file su computer sono 10 volte più veloci che in passato.

La tecnologia di ACAT fa in tal senso uso della tecnologia predittiva sviluppata da SwiftKey, un sistema non dissimile dall'omonima app per gadget mobile e presto disponibile sotto licenza open source così da aiutare anche gli altri malati di SLA in giro per il mondo.

Hawking definisce ACAT come un sistema in grado di cambiargli la vita, e spera di potersene servire per fare quello che gli piace fare per almeno i prossimi 20 anni.
Magari anche recitare la parte del cattivo in un film di James Bond, un ruolo che a suo dire potrebbe vestire alla perfezione per via del suo aspetto "semi-robotico" e la oramai ben nota voce sintetica.

Quello che non piace al professore, invece, è l'intelligenza artificiale, a suo dire un rischio concreto per la sopravvivenza del genere umano. Una visione condivisa con Elon Musk ma non con Demis Hassabis, creatore della start-up DeepMind acquisita da Google per 400 milioni di dollari.

16.4.12

Il co-fondatore di Google confida le sue preoccupazioni per la crescente censura e balcanizzazione del Web

FEDERICO GUERRINI

Per la seconda volta in breve tempo, una grande personalità del Web lancia l'allarme sul futuro della Rete. Forse è davvero ora di iniziare a preoccuparsi. Lo scorso anno era toccato a Tim Berners-Lee, uno dei padri di Internet, schierarsi a difesa di una Rete aperta, dove le informazioni potessero viaggiare liberamente, e di stigmatizzare la progressiva creazione di “walled gardens”, isole non comunicanti fra loro, ognuna con le proprie regole. Lo scienziato faceva riferimento in particolare agli ecosistemi chiusi creati da società come Apple e Facebook.

Questa volta sull'argomento è tornato uno dei co-fondatori di Google, il 38 enne Sergey Brin (nella foto a destra, con Larry Page) che, prima di ritirarsi a studiare la chitarra blues (in una recente intervista ha affermato di voler uscire di scena fra un anno, per inseguire la sua passione), ha confidato al Guardian i suoi timori. “Sono più spaventato di quanto lo sia mai stato in passato – ha affermato – in tutto il mondo e da ogni parte ci sono forze molto potenti che si sono schierate contro la libertà della Rete. È terrificante”.

La critica di Brin non si è concentrata solo sui walled gardens, forse anche per evitare il sospetto di un potenizale conflitto di interessi, visto il possibile interesse di Google a denigrare dei concorrenti, ma si è allargata all'azione censoria di molti governi, e dei grandi gruppi di interesse che combattono la pirateria. La Cina è forse un po' il simbolo della disillusione attuale, il disincanto che ha preso il posto di quello che studiosi come Evgeny Morozov hanno definito “cyber utopismo”: l'idea, in auge fino a qualche tempo fa, che il Web per sua stessa natura non potesse essere imbrigliato e imbavagliato in alcun modo. In realtà, non solo, come ha ammesso Brin, la censura cinese si è rivelata molto più efficace di quanto non si potesse pensare – l'ultimo segno ne è il giro di vite effettuato lo scorso mese sugli utenti dei siti di microblogging, che vengono ora costretti a fornire le proprie generalità per collegarsi ai cloni pechinesi di Twitter- ma h a fatto per così dire “scuola”.

L'Iran, oltre ad avere un proprio sistema di cyber sorveglianza molto sofisticato ambisce ora, a quanto pare, a creare una propria Rete nazionale, una gigantesca Intranet su cui possano transitare solo contenuti approvati dal regime. Il progetto esiste da un po' e la sua realizzazione effettiva è stata annunciata e smentita più volte, ma non è purtroppo solo una fantasia dei media occidentali. In Russia, dopo che il Web è stato il megafono delle proteste anti-Putin, secondo quanto riportato dall'agenzia di Stato Ria Novosti, il ministro dell'Interno vorrebbe creare un centro contro l'estremismo nei mass-media, comprese le testate online e i siti come YouTube.

Nei paesi occidentali, i progetti anti-pirateria come i controversi decreti Sopa e Pipa negli Usa, la legge Hadopi in Francia e varie proposte di legge italiane, nel tentativo di minimizzare le perdite per le major dell'audiovisivo, secondo i loro oppositori, minacciano indirettamente la libertà di espressione su Internet. Un piano del governo britannico contro il crimine, cibernetico e non, consentirebbe alle autorità di monitorare ogni email, ogni sito visitato, ogni messaggio di testo e ogni chiamata telefonica

E, anche altrove, le richieste dei governi di avere accesso ai dati degli utenti, ai loro tweet o ai post su Facebook per indagini di vario tipo, si fanno sempre più frequenti e pressanti.

19.9.09

Google diventa editore con due milioni di titoli

La biblioteca virtuale di Google diventa improvvisamente reale con titoli quasi dimenticati, ma che hanno fatto la storia della letteratura da Mark Twain a Carlo Collodi, passando anche per Alice nel paese delle meraviglie e Jane Eyre. Così dopo aver passato 5 anni a scannerizzare libri, Google si prepara a riportali in formato cartaceo grazie ad un accordo stretto con On Demand Books, la società che ha inventato Espresso Book, la macchina capace di stampare volumi da 300 pagine con copertina rigida in meno di cinque minuti.
La decisione di un colosso dell'online come Google di puntare sull'editoria tradizionale sembra però stonare con il recente successo dei libri elettronici. Basti pensare a The Lost Symbol, l'ultimo libro di Dan Brown (l'autore del Codice da Vinci) che ha venduto più copie nella versione e-Book scaricabile su Kindle che in cartaceo. La mossa di Google però riporterà in vita oltre 2 milioni di libri spariti anche dalle biblioteche.
Di fatto saranno edizioni economiche con un costo di circa 8 dollari (5,45 euro) di cui 3 serviranno a coprire i costi di produzione sostenuti da On Demand Books. Nelle casse del colosso di Mountain View entrerà un dollaro e il resto sarà donato in beneficienza. «La missione di Google è di rendere più accessibili i libri del mondo», ha detto Jennie Johnson, portavoce della società, ammettendo che il volume di carta resta un oggetto desiderabile per buona parte del pubblico nonostante il successo dell'editoria online. «Il cerchio si sta per chiudere. Gli utenti potranno ottenere la copia fisica di un libro del quale esistono magari due sole copie in alcune biblioteche del paese, o del quale magari non esistono più copie», ha detto la Johnson.
La novità – almeno per il momento – non riguarderà l'Italia perché le macchine Espresso per l'instant publishing, che nel 2007 hanno ricevuto da Time un premio per l'invenzione dell'anno, sono disponibili solo nel mondo anglosassone nei campus universitari e nelle biblioteche. Costano circa 100 mila dollari l'una, ma On Demand, che già offre ai suoi clienti oltre un milione di titoli punta a concederle in affitto ai rivenditori. Google consentirà la pubblicazione di titoli quindi non più protetti da copyright. «La riscoperta di questi titoli non è un problema» dice Marco Polillo, presidente degli editori italiani «piuttosto – continua – mi incuriosisce che Google, dopo aver iniziato a pubblicare notizie online ogni secondo, torni al buon vecchio libro». A preoccupare il numero uno dell'Aie è invece il confine tra titoli protetti e non protetti: «Ho sentito parlare del 1923 come data limite, in realtà in Europa si considerano i 70 anni dalla morte dell'autore».
Alla libreria istantanea potrebbero aggiungersi milioni di altri testi se a Google verrà dato il diritto di scannerizzare e vendere libri protetti da copyright ma non più in commercio: ottenendo tale diritto, il catalogo del colosso di Mountain View potrebbe rapidamente raggiungere i sei milioni di volumi. Se ne sta occupando un tribunale di New York dopo che Microsoft, Sony, Amazon, e le autorità antitrust, si sono opposti sostenendo che in tal modo Google avrebbe il monopolio sui libri fuori stampa. Evidentemente la carta stampata è ancora molto più sexy di quanto si creda. «I libri sono bellissimi – prosegue Polillo –, ma non sono come le tv che parla. Bisogna essere attenti e voler dedicare tempo alla lettura. Il problema non è certo nell'offerta, già vastissima, quanto nella mentalità dei lettori».
G. Bal.

17.9.09

Reuters Blogs - Google turns scanned books back into paper

Google turns scanned books back into paper

Posted by: Alexei Oreskovic
Tags: Mediafile, , ,

Google’s plan to digitize copyrighted books is under legal attack.

But the Internet giant is stepping up its PR offensive to convince consumers of the benefits wrought by its broader book scanning project.

Exhibit A: the Espresso Book Machine.

The contraption pictured here can produce bound paperback books, from hard-to-find works of literature to little-known cookbooks, in a matter of minutes.

The machine itself is not Google’s; it’s the creation of On Demand Books. On Wednesday, the companies announced a deal giving On Demand and its Espresso Machine access to Google’s digital library of 2 million public domain titles.

Until now, the works digitized by Google were available only as digital files for reading on computer screens or electronic readers. With the Espresso machine, the companies say, consumers will be able to bury their noses in old-fashioned, hardcopy versions of their desired books – many of which have been have been out of print for years.

On Demand Books says it currently has 16 of its book-making machines at bookstores, libraries and other locations and plans to have 34 of the machines (which are priced starting at $75,000) next year.

The machine will only crank out books from Google’s archive with expired copyrights, which in the United States means they were published before 1923. Google is currently seeking court approval of a settlement with groups representing publishers and authors regarding its use of scanned copyrighted books.

29.1.09

Google, “operazione Glasnost” sul traffico di dati online

Molti utenti sono abituati a scaricare canzoni, filmati, testi. Ma può succedere che i trasferimenti di file siano troppo lenti. Da chi dipende? Dalle condizioni di accesso alla rete o dai computer dei navigatori? Google ha lanciato Measurement Labs, un laboratorio aperto per aiutare utenti e ricercatori a capire quali sono gli anelli deboli della catena. E per farlo avranno a disposizione alcuni strumenti. Glasnost, per esempio, è un’applicazione che permette di avere maggiori informazioni su una questione spinosa: se sono le società fornitrici di accesso a internet che limitano il download o l’upload con BitTorrent, il software peer to peer più usato nei paesi anglofoni (che, però, ha un vasto seguito anche in altre nazioni: eMule, invece, è il preferito di italiani, francesi e spagnoli). Semplificando, se paragonassimo i file alle automobili in viaggio sull’autostrada, Glasnost consente di capire se è stato imposto un limite di velocità sulle corsie. Il test completo dura sette minuti e non richiede l’installazione di software.
Ma gli obiettivi di Google sono ben più ambiziosi. Qual è la velocità effettiva della connessione? E che cosa potrebbe rallentarla? Network diagnostic tool analizza le comunicazioni in profondità: valuta la capacità del traffico di dati e, inoltre, è in grado di rilevare almeno due problemi in grado di rallentare i trasferimenti di file. Dice se il network è congestionato. Oppure se, invece, il limite dipende dal computer dell’utente (per esempio, a causa dei parametri di buffer size). Al momento il servizio non è disponibile perché è intasato da un’improvvisa ondata di richieste: meno affollato, invece, un sistema equivalente offerto dai laboratori del cern di Ginevra. Nei prossimi mesi saranno accessibili altri strumenti, più raffinati, come Diffprobe per sapere se alcuni contenuti sono classificati a “bassa priorità”.
Intendiamoci, le tecnologie accessibili adesso dal Measuremnt lab non sono una novità. Ma Google progetta di potenziare i “laboratori” online con 36 server in 12 località negli Stati Uniti e in Europa. È un passo per aiutare la consapevolezza degli utenti. E, allo stesso tempo, un tentativo di comprendere se sono discriminati alcuni servizi online compatibili con il modello di business di Google. Secondo il Wall street journal l’iniziativa nasce dall’esperienza del caso Comcast, un provider americano che rallentava il traffico di BitTorrent sulle sue linee. Sono stati alcuni ricercatori a scoprire il “limite di velocità” imposto all’insaputa dei clienti. L’antitrust americano delle comunicazioni (Fcc) ha protestato. E, dopo mesi di trattative, l’azienda ora filtra soltanto gli utenti che superano le soglie nelle ore di punta sulla rete. Cosa succederebbe, però, se in altre nazioni si scoprissero regolamentazioni non dichiarate?
panorama.it

27.9.08

Ma così è nato Google

di Francesco Giavazzi

In Svezia vent'anni fa fallirono tutte le banche, anche allora a causa di una crisi del mercato immobiliare. Il reddito scese di oltre il 5% e la disoccupazione salì dal 2 al 10%. La crisi durò tre anni. Lo Stato nazionalizzò le banche e per salvarle spese 6 punti di pil, più o meno quanto costerebbe il piano del Segretario Paulson negli Stati Uniti. Si avviò anche un ripensamento profondo del modello sociale svedese: nei quindici anni successivi l'economia crebbe a un tasso medio di oltre il 3% l'anno, quasi il doppio dei Paesi europei continentali, trascinata da un boom di produttività.

Le crisi scuotono i Paesi, ma talvolta consentono quelle riforme che in tempi normali è impossibile realizzare. Un punto di crescita in più per un decennio significa guadagnare quasi 15 punti di reddito, più che sufficienti a compensare la recessione nei tre anni di crisi. Dopo qualche anno il governo di Stoccolma rivendette le banche e recuperò quasi per intero quanto aveva speso per salvarle. Con il piano Paulson il Tesoro acquisterebbe dalle banche (mediante un’asta) mutui immobiliari con uno sconto del 60-70% sul loro valore nominale. I prezzi delle case americane sono scesi del 20%: anche ammettendo che scendano ancora, acquistando per 30-40 centesimi mutui che valgono un dollaro, Paulson — e quindi i contribuenti americani — fanno un buon affare: oggi risolvono la crisi e domani, quando il Tesoro rivenderà i mutui, potrebbero incassare una plusvalenza sufficiente a cancellare una parte del debito pubblico. Non solo: il Tesoro scambia titoli pubblici su cui paga un interesse del 2% con obbligazioni che rendono il 10%. Un incasso netto di quasi 50 miliardi di dollari l’anno (meglio ancora, il Tesoro potrebbe acquistare azioni delle banche, come accadde in Svezia: oggi ne rafforza il capitale, a crisi finita le rivende incassando un premio).

Fra 5 anni potremmo esserci dimenticati della crisi e ricominciare a guardare con ammirazione gli Usa che crescono più di noi e con meno debito pubblico. L'opinione comune in Europa è che la «deregulation selvaggia» dei mercati finanziari americani abbia rovinato il mondo: se Washington avesse seguito l'esempio europeo, si dice, i guai che oggi osserviamo non sarebbero accaduti. Vero, ma la deregulation degli anni 80 consentì anche a investitori audaci («barbari» li chiamò Tom Wolfe in un libro che divenne famoso) di comprare aziende a debito, smontarle come i pezzi di un meccano e poi rivenderle lasciando che il mercato le rimontasse in modo più efficiente. Senza i leverage buy-out di quegli anni, gli straordinari guadagni di produttività degli anni 90 non si sarebbero mai realizzati: tra i due decenni la crescita negli Stati Uniti accelerò di un punto, dal 3 al 4% mentre l'Europa continentale rallentava dal 2,5 al 2,2%.

E senza le banche di investimento, oggi tanto criticate, forse non vi sarebbe stata la «bolla» del Nasdaq, ma non sarebbe neppure nata Google, un'azienda che ha per sempre cambiato il mondo. I «derivati» hanno creato guai gravi, ma negli anni passati hanno anche consentito alle banche americane di offrire mutui a famiglie recentemente immigrate alle quali le vecchie banche non avrebbero mai fatto credito. Queste famiglie hanno potuto acquistare una casa e integrarsi più rapidamente nella società. Alcune di loro, una minoranza, oggi la perde, ma nel frattempo (grazie ai mutui con interessi differiti nel tempo) ha abitato gratis per alcuni anni: ora deve semplicemente restituire le chiavi (il sito youwalkaway. com spiega come) e acquistare (a un prezzo conveniente) una casa più consona al suo reddito. I politici, sia in Europa che negli Stati Uniti, oggi reclamano il diritto di riscrivere le regole dei mercati finanziari. In una democrazia è normale, ma può essere anche pericoloso. La «deregulation selvaggia » oggi tanto biasimata non è piovuta dal cielo.

E' il risultato di una legge (il Gramm-Leach-Bliley Act del 1999) fatta approvare dal senatore repubblicano Phil Gramm, un politico che fino a qualche settimana fa John McCain pensava di nominare segretario al Tesoro, e che negli anni è stato ricompensato dall'industria finanziaria con 4,6 milioni di dollari di contributi elettorali. Il Gramm-Leach-Bliley Act trasferì la responsabilità per la sorveglianza delle banche di investimento dalla Federal Reserve alla Sec (la Consob americana), la quale da quel giorno sostanzialmente dormì. Da sei-sette anni il Comitato di Basilea e il Financial Stability Forum ripetono che le banche d’investimento sono fragili perché hanno troppo poco capitale in rapporto ai rischi cui si sono esposte. Ma gli allarmi dei banchieri centrali sono caduti inascoltati o non hanno voluto essere ascoltati (fino all’anno scorso i politici non si preoccupavano delle banche, ma dei fondi hedge, tra le poche istituzioni che sono uscite quasi intatte dalla crisi). Siamo davvero convinti che il senatore Gramm scriverebbe regole migliori del presidente della Federal Reserve, Ben Bernanke? I guai cui oggi assistiamo non sono intrinseci al capitalismo, ma a «un» capitalismo, quello corrotto dalla politica.

corriere.it