Facebook e Google dominano nelle notizie online, ma per argomenti molto diversi

Facebook e Google dominano nelle notizie online, ma per argomenti molto diversi

Su Internet, ci sono Google e Facebook, e poi ci sono gli altri. E gli editori digitali lo sanno e lo sanno anche le imprese, che si sono affidate a questi colossi, consentendo loro di contabilizzare una crescita senza precedenti in termini di annunci e notizie online.

Gli editori digitali sanno anche quanto sia fondamentale il fattore rinvio. A meno che non si sia uno dei pochi fortunati siti che rappresentano ancora una destinazione per i lettori, occorre puntare su Facebook o su Google. Insieme, hanno rappresentato il 75% di tutti i riferimenti di traffico Internet, secondo quanto comunicato dalla società di analisi dati Parsley.

La Parsley ha scoperto che Facebook e Google tendano entrambi a guidare le persone, ma attorno a storie molto diverse tra loro. Ciò indica chi utilizzi le piattaforme o gli argomenti di discussione ai quali si è interessati. Quello che è chiaro è che trattarli allo stesso modo sia una mossa infelice.

Il numero di standout è pari all’87 % e questo dato si traduce con il modo in cui gli articoli generano traffico in materia di “lifestyle” via Facebook. Google conta il 6,7 % in questo settore, mentre altri referrer arrivano insieme al 6,2 %.

Google tende a dominare nelle notizie, incluse tecnologia, business e sport.

Il grafico qui sotto fornisce informazioni sulle varie aree tematiche studiate da Parsely:

parsely notizie online

Tra gli standout ci sono anche le offerte di posti di lavoro. Google si aggiudica un mostruoso 84% in quanto a riferimenti in materia di annunci di lavoro, il che spiegherebbe il perché Google stia recentemente annunciano sempre più strategie in questo settore.

Facebook si è rivelato negli ultimi anni come la forza dominante tra i media digitali. Il social network può guidare enormi quantità di traffico per gli editori, ma Clare Carr – del team di marketing di Parsely – ha notato una predominanza spropositata nell’impatto dell’influenza della piattaforma.

“La nostra ultima analisi dei dati mostra tuttavia che se si utilizzano solo feed di notizie di Facebook per giudicare i tipi di notizie che le persone consumano, si finisce con l’ottenere un quadro distorto” ha scritto Clare Carr in un post sul blog “Su Facebook, vedrete i lettori impegnati con articoli su intrattenimento, stile di vita, eventi locali e politiche. Gli articoli che trattano il business, l’economia mondiale e gli sport attirano sì i lettori, ma principalmente attraverso Google e altri referrer”.

Digitalic X 2017 – Studi TV RAI

Digitalic X 2017 – Studi TV RAI

Digitalic X 2017 è stato un evento unico con ospiti di incredibile spessore e un team eccezionale che ha saputo realizzare qualcosa di davvero raro.

 

Qui lo Storify di Digitalic X 2017

Vota il tuo ospite preferito di Digitalic X

Commenta #DigitalicX con noi sui Social


Gli ospiti di Digitalic X

Luca Parmitano, Astronauta
Piergiorgio Odifreddi, Matematico e saggista
Barbara Mazzolai, Scienziato
Rudy Bandiera, Blogger
Pepper, Robot relazionale
Paola Marzario, Fondatrice e Ceo di Brandon Ferrari
Pietro Paganini, Economista
Francesca Moriani, Ad di Var Group
Moseek, Band Musicale

I commentatori ufficiali di #DigitalicX

Annalisa Monfreda, Direttore di Donna Moderna
Settimio Benedusi, Fotografo
Franz Russo, Blogger

Presenta Francesco Marino, fondatore di Digitalic

Digitalic X, i dettagli

Digitalic X è un evento unico che si tiene negli studi TV Rai il 25 maggio dalle ore 15.00

Il tema di questa edizione è “Social Innovation”.

Le personalità più influenti del mondo della cultura, della tecnologia, delle startup, dell’università, dei social network, racconteranno sul palco la propria storia, quello che hanno imparato, i trend per il futuro e che cosa significhi per loro innovazione sociale.

Potrete assistere in diretta ad un evento in grado di ispirarvi, farvi pensare ma anche intrattenervi.

Facebook video: il futuro è live e in realtà virtuale

Facebook video: il futuro è live e in realtà virtuale

I Facebook video sono vero nuovo volto del social network più diffuso la mondo. Zuckerberg continua a puntare sui video, ma presto esploderanno i contenuti in realtà virtuale

di Emanuela Zaccone*

Che i video siano uno dei contenuti maggiormente fruiti online è un dato di fatto, che ha decretato il successo di piattaforme come YouTube, certo, ma soprattutto che ha introdotto nuove pratiche nella vita e nelle abitudini di ciascuno.

Facebook video live e gli altri

Da Periscope a Facebook Live passando per (il defunto) Meerkat e fino ad arrivare a Snapchat e Instagram Stories, ci siamo abituati a condividere il nostro punto di vista rendendo partecipe chi ci segue di ciò che sta accadendo, qui ed ora. Facebook ha iniziato a puntare sui video in modo crescente dal 2015, con l’autoplay in timeline da mobile e di recente è stato annunciato che i video non solo partiranno in automatico ma saranno anche accompagnati dall’audio, nell’evidente tentativo di spingere maggiormente questi contenuti.

Facebook video anche in Tv

A metà febbraio Dan Rose – VP Partnerships di Facebook – ha annunciato l’arrivo di un’applicazione disponibile inizialmente per Apple TV, Amazon Fire TV e Samsung Smart TV che permetterà agli utenti di guardare sul televisore i Facebook video salvati. L’obiettivo è sempre lo stesso: spingere gli utenti a guardare di più e più a lungo. La possibilità – attiva anch’essa relativamente da poco – di ridurre il video a picture-in-picture e minimizzarlo, come già consentito ad esempio da YouTube, va proprio in questa direzione. D’altra parte la forte spinta sulla componente video ha ovvi obiettivi di monetizzazione.

Accentrare l’esperienza su Facebook video

Se infatti non si arrestano gli investimenti sul fronte digital, diventa fondamentale per un ecosistema come Facebook, e i Facebook video, accentrare l’esperienza utente consentendone una migliore profilazione e quindi accrescendo la propria base dati sfruttabile in ambito advertising.
Già a settembre 2016 Facebook aveva dovuto rivedere le modalità con cui venivano misurate le visualizzazioni dei video – che omettevano quelle inferiori ai 3 secondi, gonfiando la durata media delle altre -, contemporaneamente è stato necessario migliorare tutti gli analytics forniti agli utenti, integrando anche quelli relativi ai live videos. A partire da questi ultimi, è stato rivisto anche il modo in cui i video vengono distribuiti e la loro rilevanza calcolata dall’algoritmo sulle nostre timeline. Come annunciato a gennaio 2017, viene accordata maggiore rilevanza al completamento delle visualizzazioni: in altre parole, un video lungo che viene visto fino alla fine per un certo numero di volte potrebbe ricevere un “miglior trattamento” da parte dell’algoritmo.

Contenuti più lunghi, utenti coinvolti

Facebook video significa contenuti più lunghi e quindi maggiore permanenza sulla piattaforma, quindi migliori performance da rivendere agli advertiser (che chiaramente non dispiacciono neanche agli investitori). Potrebbe anche significare però una maggiore produzione di contenuti long form, che avrebbe un impatto sulle nostre abitudini e sulle tipologie di contenuti stessi. Ma al di là dei video generati dagli utenti, cosa accade sul fronte dei diritti di trasmissione, ad esempio, di eventi sportivi?

Lo scontro Facebook vs. Twitter

È questo il terreno di gioco su cui si scontrano Facebook e, in particolare, Twitter: se quest’ultima infatti sembra aver trovato soprattutto nell’accordo con Nfl e nella recente attività per gli Australian Open un po’ di respiro per tirare su i dati d’uso della piattaforma, Facebook – dopo i costosi accordi pubblicitari dello scorso anno con diversi sportivi (tra cui Phelps) per l’adozione di Facebook Live – è passata più volte al contrattacco acquistando i diritti per diversi match. L’ultima notizia mentre scriviamo è quella dell’accordo con Univision per la trasmissione di una serie di partite del campionato di calcio messicano.Quando si parla di video su Facebook (inteso come ecosistema, quindi comprensivo di Instagram) sono dunque almeno tre i potenziali impatti di cui dovremmo tenere conto:

1. Abitudini degli utenti:
ci siamo abituando a mostrare su Live le nostre esperienze, senza filtri, aperte a tutti. Stiamo producendo narrazione.

2. Rilevanza in termini di investimenti:
un ecosistema che attrae utenti profilatili è una miniera d’oro che potrebbe modificare gli equilibri degli investimenti tra i diversi media come li abbiamo conosciuti finora.

3. Impatto sui media:
da tempo la TV è sempre più ridotta a device, schermo tra gli schermi. Attendiamoci che in futuro i diritti di certe trasmissioni siano venduti non solo per la TV ma anche per i canali social. E non dimentichiamo Oculus, altro importante asso nella manica di Facebook. La realtà virtuale non è un futuro troppo lontano ma un presente ancora scarsamente distribuito: quanto passerà ancora prima di fruire i contenuti in realtà virtuali? Siate pronti.

RISORSE

1. Abitudini degli utenti, attrazione degli investimenti pubblicitari e impatto sui media: che ruolo hanno i video e il loro consumo su Facebook nel ridefinire questi aspetti? Cosa dovremmo aspettarci nel prossimo futuro?

2. I video su Facebook
vengono premiati dall’algoritmo in maniera proporzionale
al completamento della loro fruizione. Il successo dei long form content è quindi ineluttabile?

3. La realtà virtuale non è un futuro troppo lontano ma un presente ancora scarsamente distribuito. Cosa accadrà quando avremo la possibilità di essere “presenti” in campo mentre guardiamo le partite o di stare in studio durante un reality?


*Digital Entrepreneur, Co-founder e Social Media Strategist di TOK.tv. Ha oltre 7 anni di esperienza come consulente e docente in ambito Social Media Analysis e Strategy per grandi aziende, startup e università.Nel 2011 ha completato un Dottorato di Ricerca tra le università di Bologna e Nottingham con una tesi su Social Media Marketing e SocialTV.

Google I/O 2017:  il keynote sull’intelligenza artificiale

Google I/O 2017: il keynote sull’intelligenza artificiale

Il keynote di Sundar Pichai, CEO di Google, al Google I/O 2017, ha portato l’attenzione sull’intelligenza artificiale a portata di tutti

“Lavoro a Google ormai da 13 anni ed è straordinario vedere come la mission dell’azienda di rendere universalmente accessibile l’informazione sia importante oggi tanto quanto lo era all’inizio. Da sempre cerchiamo di risolvere problemi complessi utilizzando l’analisi dei dati e l’informatica, anche quando la tecnologia intorno a noi impone cambiamenti radicali” ha detto Sundar Pichai.

Pichai, CEO di Google, al Google I/O

Google I/O tutto sull’intelligenza artificiale

I problemi più complessi sono anche quelli che hanno un impatto più significativo sulla quotidianità di tutti noi ed è entusiasmante vedere quante persone abbiano fatto di Google una parte integrante della loro vita quotidiana. “Abbiamo appena superato i 2 miliardi di dispositivi Android mensili attivi; YouTube ha raggiunto, oltre a 1 miliardo di utenti, anche 1 miliardo di ore di watchtime al giorno; e le persone usano Google Maps per fare oltre 1 miliardo di chilometri ogni giorno. Questa crescita sarebbe stata impensabile senza il passaggio al mobile, che ci ha portato a ripensare tutti i nostri prodotti: li abbiamo reinventati perché riflettano nuovi modelli di interazione, come l’utilizzo degli schermi multi-touch.”

Il passaggio da mobile all’intelligenza artificiale

Oggi siamo di fronte a un nuovo cambiamento in campo informatico: il passaggio da mobile all’intelligenza artificiale. Per questo, ci troviamo a reinventare i nostri prodotti, adattandoli a un mondo che consente di interagire con la tecnologia in maniera più naturale e continuativa. Pensate al motore di ricerca Google: è stato creato sulla nostra capacità di comprendere testi all’interno di pagine web. Adesso, grazie ai progressi nell’ambito del deep learning, le persone possono usare immagini, foto e video come mai prima d’ora. La vostra fotocamera può “vedere”, voi potete parlare con il vostro telefono e ricevere delle risposte. Linguaggio e vista stanno diventando fondamentali per l’informatica tanto quanto la tastiera o gli schermi multi-touch.

L’Assistente Google è un ottimo esempio di questi passi avanti. È già attivo su oltre 100 milioni di dispositivi e diventa ogni giorno più utile. Ora Google Home è in grado di distinguere voci diverse, offrendo alle persone un’esperienza più personalizzata quando interagiscono con il dispositivo. Siamo anche in grado di rendere la fotocamera dello smartphone uno strumento capace di svolgere dei compiti. Google Lens è un insieme di funzionalità di calcolo basate sulla vista, in grado di comprendere ciò che state cercando, aiutandovi a intraprendere azioni basate su queste informazioni.

Invece di fare salti mortali per trovare la lunga e complicata password del Wi-Fi sul retro del router, il vostro telefono ora può aiutarvi a riconoscere la password, capire che state tentando di accedere alla rete Wi-Fi e autenticare l’accesso in modo automatico. E per utilizzare queste nuove funzionalità, non avete bisogno di imparare nulla di nuovo. L’interfaccia e l’esperienza utente possono essere molto più intuitive rispetto, ad esempio, al copiare e incollare da un’app all’altra dello smartphone. La prima cosa che faremo sarà introdurre le funzionalità di Google Lens all’interno dell’Assistente e di Google Foto, per poi estenderlo anche agli altri prodotti.

[Attenzione: da qui in poi roba da geek!]

Tutto questo richiede risorse computazionali adeguate. L’anno scorso in occasione dell’I/O abbiamo annunciato la prima generazione di TPU che ci permettono di eseguire velocemente e in modo più efficiente i nostri algoritmi di machine learning. Oggi annunciamo la nostra prossima generazione di TPU: Cloud TPU, ottimizzati sia per le inferenze che per l’apprendimento e capaci di elaborare molte informazioni. Renderemo disponibile Cloud TPU su Google Compute Engine, in modo che le aziende e gli sviluppatori possano utilizzarlo.
Per noi è importante che questi progressi vadano a vantaggio di tutti, non solo degli utenti di Google. Siamo convinti che i problemi sociali più complessi possano trovare soluzioni rivoluzionarie se scienziati e ingegneri avranno a disposizione strumenti di calcolo migliori e più potenti e accesso immediato alla ricerca. Ma al momento gli ostacoli sono ancora troppi.

Google.ai concentra le iniziative nel campo dell’intelligenza artificiale

Un modo per rendere più accessibile l’intelligenza artificiale è semplificando la creazione dei modelli di apprendimento automatico, le cosiddette reti neurali. Attualmente, la progettazione di reti neurali è estremamente impegnativa in termini di tempo e richiede competenze che limitano il suo utilizzo a una piccola comunità di scienziati e ingegneri. Ecco perché abbiamo creato un approccio chiamato AutoML, che dimostra che è possibile per le reti neurali progettare altre reti neurali. Speriamo che AutoML acquisisca capacità che solo pochi dottorandi hanno oggi e che nell’arco di tre o cinque anni possa permettere anche a centinaia di sviluppatori di progettare nuove reti neurali per le loro esigenze.

Google I/O: i problemi da risolvere

Oltre a questo, Google.ai permette a scienziati e sviluppatori di Google di collaborare su problemi in una vasta gamma di discipline, con risultati promettenti. Abbiamo utilizzato il machine learning per migliorare l’algoritmo che rileva l’avanzamento del tumore al seno nei linfonodi adiacenti. Abbiamo anche osservato notevoli progressi dell’intelligenza artificiale per quanto riguarda il tempo e la precisione con cui i ricercatori possono predire le proprietà delle molecole nonché la sequenza del genoma umano.
Questo sviluppo non è solo finalizzato alla progettazione di dispositivi futuristici o allo scopo di condurre ricerca all’avanguardia. Pensiamo anche che possa aiutare milioni di persone oggi, democratizzando l’accesso alle informazioni e aprendo nuove opportunità. Ad esempio, quasi la metà dei datori di lavoro americani afferma di avere ancora problemi ad assumere nuove risorse per le posizioni di lavoro aperte. Allo stesso tempo, chi sta cercando lavoro spesso non sa che c’è una posizione aperta proprio dietro l’angolo, perché la natura degli annunci di lavoro – elevata rotazione, poco traffico, incongruenza nei titoli professionali – li ha resi difficili da classificare per i motori di ricerca.

Google for Jobs

Attraverso una nuova iniziativa, Google for Jobs, vogliamo mettere in contatto aziende e candidati e aiutare chi cerca lavoro a trovarlo. Come parte di questo impegno, nelle prossime settimane lanceremo una nuova funzionalità della Ricerca di Google che permetterà ai candidati in cerca di lavoro di trovare offerte a ogni livello di esperienza e retribuzione, incluse offerte di lavoro storicamente difficili da indicizzare e classificare, come quelle nei settori dei servizi e del commercio al dettaglio.
È affascinante realizzare come l’intelligenza artificiale stia iniziando a produrre frutti che le persone possono già cominciare a raccogliere. C’è ancora molta strada da fare per arrivare a un mondo in grado di sfruttare appieno le potenzialità dell’intelligenza artificiale. Ma più facilitiamo l’accesso alla tecnologia – sia in termini di strumenti che le persone possono utilizzare sia di modalità di applicazione – più tutti ne potremo beneficiare. Al più presto.

Amazon: 20 anni epici della società spiegati in 5 grafici

Amazon: 20 anni epici della società spiegati in 5 grafici

Il 15 maggio 1997 una libreria online apparentemente in perdita ha lanciato la propria offerta pubblica sul Nasdaq con un IPO che l’aveva valutata circa 438 milioni di dollari. Vent’anni dopo, quella piccola startup – chiamata Amazon – vale almeno 460 miliardi di dollari.

Per arrivare a questo successo, il gigante di Seattle ha impiegato sistematicamente quasi tutti i soldi che continua a generare in nuove, enormi aree di investimento come Amazon Prime, Amazon Web Services e, più di recente, la piattaforma Alexa. La società di Jeff Bezos ha penetrato il mercato – industria dopo industria – ad un ritmo forse ineguagliato nella storia moderna.
In occasione del ventesimo anniversario dell’IPO della società, sono stati presentati cinque grafici che mostrano l’ascesa del dominio di Amazon.com negli corso degli ultimi due decenni.

1. Per gli investitori, questo è forse l’unico grafico necessario. Il prezzo delle azioni di Amazon, a partire da venerdì scorso, è stato fissato a 961 dollari ad azione ovvero un valore di oltre 600 volte superiore a quello del giorno della sua IPO dopo aver contabilizzato le divisioni di azioni.

Amazon

2. Nel corso degli ultimi due anni, Amazon ha avuto un punto di inflessione, dove la crescente dominanza di Prime e il successo di AWS hanno spinto il suo valore di mercato a salire. Amazon ha impiegato 18 anni dal lancio dell’offerta pubblica a raggiungere il tetto di Walmart, ma sono bastati due anni per raddoppiarlo.Amazon

3. Una delle metriche più rilevanti per gli investitori tecnologici del mercato pubblico è la crescita dei ricavi. E Amazon continua a crescere. Per tutto il tempo, si è assicurata di non far perdere troppi soldi in modo da poter consumare la quota di mercato di quei competitor più concentrati sui profitti che sulla crescita.
Amazon

4. Ma non è forse uno degli obiettivi aziendali principali quello di fare profitto? Non per Amazon, o almeno, non in senso tradizionale. Jeff Bezos sa che il cash flow operativo dà alla società il denaro necessario per investire in tutto quello che pone e mantiene la società in testa ai concorrenti.Amazon

5. E gli sforzi sono stati ben ripagati. Amazon è diventata sinonimo di e-commerce, e i numeri lo dimostrano sempre più. È il principale rivenditore via Internet negli Stati Uniti, e ad oggi possiede il 33% del mercato, secondo la società di ricerche di mercato Euromonitor International. Gli analisti stimano che la quota potrebbe aumentare fino a raggiungere il 50 % entro il 2021. Amazon

ParlAI: chatbot meno robotici con l’AI di Facebook

ParlAI: chatbot meno robotici con l’AI di Facebook

Il nuovo sistema Facebook, denominato ParlAI, è il tentativo da parte di FAIR di rendere i bot sempre più intelligenti.

Il Facebook Artificial Intelligence Research group (FAIR) ha annunciato una nuova iniziativa che unisce AI e messaggistica. Un nuovo “laboratorio” online permetterà a chiunque di testare e di utilizzare i set di dati disponibili pubblicamente per migliorare i propri sistemi di dialogo AI.

Estraendo i dati da più di venti dataset che Facebook mette a disposizione, la speranza è che si possano costruire sistemi di dialogo multifunzione derivanti da tutti i set di dati diversi. Questa operazione non aiuterà soltanto i bot di AI essere più funzionali, ma permetterà anche una migliore “formazione” dialogica da parte dell’AI in modo da imparare sempre più velocemente e comunicare in modo più umano rispetto ad ora.

ParlAI non è destinato esattamente allo sviluppo di bot bensì è indicato per allenare i sistemi di dialogo a migliorare. In questo modo, quando verranno impiegati per interagire con gli esseri umani reali, saranno non solo più intelligenti, ma converseranno in modo più naturale. Un altro aspetto importante di ParlAI è che si collega direttamente a Amazon Mechanical Turk in modo da poter fare in modo che gli esseri umani possano testare direttamente il codice.
Per chi fosse interessato al dialogo AI, ParlAI è già presente su GitHub, ma il team di sviluppatori avvisa che c’è da aspettarsi che vengano riscontrati alcuni bug, in quanto si tratta ancora di un rilascio beta. Ci vorrà del tempo prima che la ricerca e il test derivanti da questo progetto rendano le conversazioni con i chatbot e con gli altri sistemi di intelligenza artificiale più naturali, ma questa iniziativa potrebbe rappresentare un passo importante per Facebook M, Google Assistant, Siri e Alexa.

No Banner to display