L’intelligenze artificiale può prevenire il suicidio

L’intelligenze artificiale può prevenire il suicidio

Ogni giorno negli Stati Uniti circa 120 persone si suicidano. Si contano quasi 45.000 suicidi ogni anno e il suicidio rappresenta la decima causa di morte negli Stati Uniti. Si tratta di un dato in crescita, secondo quanto mostrano i dati ottenuti a livello nazionale. Gli addetti ai lavori del settore sanitario hanno a disposizione delle tecniche e dei sistemi per prevenire un tentativo di suicidio, ma spesso non è possibile prevedere chi abbia più bisogno di un intervento.

“Puntiamo alla prevenzione da più di 50 anni, ma la nostra efficacia è ancora a livello casuale” afferma Jessica Ribeiro, psicologa e ricercatrice presso la Florida State University. Ma qualcosa potrebbe cambiare. I ricercatori come la Ribeiro stanno ottenendo un aiuto notevole da parte della tecnologia. Anziché affidarsi ad alcuni fattori di rischio, noti come depressione o abuso di droga, questi nuovi metodi aiutano a considerare il suicidio come un fenomeno complesso, ovvero il risultato di una serie di eventi intercorsi nella vita che risultano interconnessi tra loro.

L’intelligenza artificiale è capace di capire questa complessità e delineare la relazione tra i fattori che portano al suicidio in un modo del tutto sconosciuto per la mente umana.

Prevenzione suicidio: i risultati sono promettenti

Utilizzando i sistemi di intelligenza artificiale (AI), la Ribeiro e i suoi colleghi hanno potuto prevedere se qualcuno fosse intenzionato a tentare il suicidio entro un lasso di tempo di due anni, raggiungendo un tasso di precisione di circa l’80 %.  E i loro risultati sono stati recentemente riportati nella rivista Clinical Psychological Science.

Questo alto livello di precisione è stato reso possibile grazie all’impiego del machine learning, i ricercatori infatti hanno creato un algoritmo fornendo i record anonimi riguardanti la salute di 3.200 persone che avevano già tentato il suicidio. L’algoritmo apprende i vari modelli attraverso l’analisi di combinazioni di fattori che portano al suicidio, dall’uso di farmaci al numero di visite al pronto soccorso avvenute nel corso degli anni.

“Come umani, vogliamo capire che cosa cercare, ma sarebbe come chiedersi quale tratto di pennello sia il più importante in un dipinto” ha commentato la Ribeiro. Con il finanziamento ottenuto da parte del Dipartimento della Difesa, la Ribeiro mira ora a creare uno strumento che possa essere utilizzato nelle cliniche e nei pronto soccorso per individuare e aiutare al meglio gli individui ad alto rischio.

Ma non tutti coloro che commettono il suicidio hanno a disposizione un ampio resoconto medico o sono mai entrati in ospedale. Quindi un altro gruppo di ricerca sta prendendo un approccio simile a quello dell’AI per la previsione dei suicidi, esaminando i dati da una fonte più onnipresente: lo smartphone. La compagnia finanziata dal DARPA, che sia chiama Cogito, ha sviluppato un’app mobile chiamata Companion che raccoglie automaticamente i dati sui modelli di comunicazione e sui movimenti di qualcuno, mettendo insieme migliaia di dati.

Questi dati vengono quindi utilizzati per creare un punteggio di rischio che viene mostrato al medico di riferimento. Nel caso in cui il punteggio cambiasse nel tempo, il medico chiamerà il soggetto interessato, al fine di sottoporlo ad un controllo e assicurarsi se possa aver bisogno di ulteriori cure.  Cogito, attualmente, sta lavorando con il Dipartimento per gli Affari dei Veterani presso un centro di prevenzione del suicidio di Denver, in Colorado, per testare l’applicazione con i veterani ritenuti ad alto rischio di suicidio. Nel caso in cui i test dovessero risultare riusciti e se la prevenzione si rivelasse efficace, ci si aspetta che il sistema possa essere dispiegato su scala più ampia entro i prossimi due anni.

Sebbene uno strumento di AI possa determinare chi sia a rischio di suicidio, lo stesso sistema non è in grado di prevedere esattamente quando ciò possa accadere. Facebook sta cercando di risolvere questo problema utilizzando l’AI per identificare i post di potenziali “suicida o autolesionisti”, mostrando alcune risorse per far fronte ad una crisi di un utente. È troppo presto per sapere quanto accurato possa essere l’algoritmo della piattaforma, ma lo sforzo è un passo verso la giusta direzione, secondo quanto dicono gli esperti.

Valutare e prevenire i rischi con i computer

Ciò che accade a seguito di un tentato suicidio rappresenta un’ulteriore sfida. Le strategie di prevenzione non sono sempre efficaci e può essere più difficile proteggere gli individui ad alto rischio nel momento in cui le prestazioni sanitarie sono terminate. A tal fine, i ricercatori dell’Università del Vermont e di Dartmouth hanno sviluppato un sistema per la valutazione e la prevenzione dei rischi.

In primo luogo, i pazienti utilizzano un’indagine basata su tablet per rispondere a 11 domande che possano valutare rapidamente il rischio di suicidio in qualcuno, nello stesso modo in cui lo farebbe uno psichiatra. In una prova avvenuta nel Montana, che spesso si colloca nella fascia alta degli stati con alto tasso di suicidio, la squadra ha potuto scoprire che almeno il 5 % delle persone che si erano recate in un pronto soccorso fossero ad alto rischio. E la metà tra quelle persone non si era recata in ospedale per motivi psichiatrici.

“Non sarebbero stati identificati se non avessimo avuto a disposizione questo strumento” afferma Bill J. Hudenko, assistente di psichiatria presso la Scuola di Geisel di Dartmouth.

Lo strumento di valutazione dei rischi è abbinato a Proxi, un’applicazione specifica per la salute mentale che mira a migliorare il benessere delle persone affette da depressione e altre condizioni di difficoltà.

“Proxi si basa sull’idea che la salute mentale si verifichi al di fuori della connessione diretta con un medico, ma all’interno della cerchia di amici e familiari che sono l’autentico sistema di supporto naturale di un individuo” ha commentato Hudenko.

Se un paziente è classificato come ad alto rischio, un’infermiera lo aiuterà ad ottimizzare l’applicazione Proxi per creare un sistema di supporto mettendolo in contatto con amici e familiari, e Hudenko aggiunge “Sappiamo cosa sia prezioso nella prevenzione del suicidio: aiutare le persone a mantenere le connessioni con gli altri”.

Fotografie olografiche in 3D attraversano le pareti grazie al WiFi

Fotografie olografiche in 3D attraversano le pareti grazie al WiFi

Un gruppo di ricercatori tedeschi ha sviluppato un metodo per sfruttare i segnali WiFi per catturare le immagini olografiche in 3D di oggetti attorno ad una rete, anche attraverso barriere solide come le porte e le pareti. La chiave i questa tecnologia sta nella registrazione delle forme che si vengono a creare da radiazioni sconnesse, ovvero dalle onde elettromagnetiche che rimbalzano gli oggetti durante l’attraversamento dell’aria.

La ricerca che sta dietro a questo metodo di imaging in 3D, iniziata come progetto di tesi di laurea prima di essere esaminata e sviluppata in uno studio più grande, è stata originariamente pubblicata nella rivista Physical Review of Letters all’inizio di questo mese. La tecnica descritta nello studio è in grado di fornire immagini di frequenza pari a 10 volte al secondo, ricreando il contenuto di un intero edificio in una simulazione su larga scala.

L’utilizzo di WiFi per l’imaging non è un concetto nuovo, ma gli autori dello studio dietro a questa nuova avventura affermano che per la prima volta i segnali siano stati utilizzati per riprodurre gli ologrammi 3D in grandi spazi. Il sistema non è abbastanza preciso da distinguere molti dettagli per ora, ma è in grado di identificare figure generiche e individuali all’interno di uno spazio.

“Se c’è una tazza di caffè su un tavolo, si potrebbe vedere che c’è qualcosa, ma finora non è mai stata definita la forma di quel determinato oggetto” ha dichiarato Philipp Holl, uno studente di fisica dell’università di Monaco di Baviera che ha collaborato allo studio “Da oggi si potrebbe scoprire la forma di una persona o di un cane su un divano, in realtà, di qualsiasi oggetto o presenza di dimensioni superiori a quattro centimetri”.

Il metodo utilizza i segnali WiFi per eseguire la scansione di una stanza, che funge da impianto radar a bassa potenza. I dispositivi di trasmissione, come i nostri telefoni e altri dispositivi elettronici, agiscono come lampadine per il sistema di imaging, che dipende da due antenne: uno scanner incaricato di mappare un piano 2D e un altro che registra il segnale.

Una volta che le antenne raccolgono i dati dell’immagine, la vista tridimensionale degli oggetti e degli emettitori viene alimentata da un algoritmo di ricostruzione digitale che crea la mappa dell’ologramma degli oggetti all’interno dello spazio. Con un numero maggiore di antenne di scansione, il sistema potrebbe essere sempre più veloce e più preciso, secondo Holl.

Sebbene si tratti di una tecnologia allo stato embrionale, questo metodo mette in luce una possibilità di sistemi di sorveglianza dei segnali cellulari che corrispondono ad un’invasione della privacy senza precedenti.

Le applicazioni nel mondo reale che i ricercatori immaginano meno preoccupanti, come ad esempio il monitoraggio di strumenti e attrezzature in una fabbrica, missioni di ricerca e salvataggio per trovare persone intrappolate negli edifici, ma sta di fatto che la riservatezza dovrebbe essere una preoccupazione importante nel corso dello sviluppo di questo sistema.

OpenAI: Elon Musk svela il robot che impara con la realtà virtuale

OpenAI: Elon Musk svela il robot che impara con la realtà virtuale

Elon Musk, co-fondatore e presidente dell’organizzazione che si occupa di intelligenza artificiale senza scopo di lucro che si chiama OpenAI, ha annunciato pubblicamente di aver creato un sistema AI in grado di imparare a portare a termine un compito dopo aver visto una sola dimostrazione di quella stessa operazione, ma riprodotta in un ambiente simulato.

Elon Musk con OpenAI rivoluziona la Robotica

Il nuovo sistema robotico di OpenAI potrebbe quindi lasciare l’umanità senza parole, infatti, non solo è in grado di replicare con successo i comportamenti umani, ma è in grado di farlo dopo una sola dimostrazione di una determinata attività.
La società di ricerca Open AI, ha utilizzato due reti neurali separate per sviluppare il suo sistema di apprendimento ad imitazione di un singolo.

come funziona il nuovo algoritmo robotico

La prima, una rete visuale, analizza un’immagine ottenuta dalla videocamera del robot per determinare la posizione degli oggetti nella realtà (nell’esempio video di OpenAI, gli oggetti sono blocchi di legno su di un tavolo). La rete è in grado di ripetere l’azione anche se non ha mai visto prima né il tavolo né i blocchi di legno. Invece, i ricercatori hanno addestrato il sistema attraverso centinaia di migliaia di immagini simulate, le quali comprendevano diverse intensità di luce, di struttura e di oggetti.

Il robot guarda e imita l’azione vista in realtà vituale

La seconda, invece, è una rete di imitazione, la quale determina l’intento di un compito osservando una dimostrazione umana per mezzo di una simulazione virtuale, imitando l’attività nell’ambiente reale. Questa rete è stata addestrata sulla base migliaia di dimostrazioni virtuali, ma nessuna di queste aveva avuto luogo nella realtà.

AI Elon Musk

Gli basta guardare uan volta per saper rifare l’azione

Nel momento in cui al sistema è stato richiesto di imitare una dimostrazione simulata della realtà, il sistema è stato capace di farlo dopo aver visto la dimostrazione una sola volta. Inoltre, il sistema è stato in grado di completare l’attività nonostante i parametri di partenza non fossero corrispondenti. Ad esempio, non è stato necessario che i blocchi si trovassero nella stessa posizione riprodotta nella dimostrazione per far sì che il sistema sapesse come impilarli. Nel momento in cui un blocco blu è stato posto sopra un blocco bianco nella dimostrazione, il sistema ha replicato quel compito, anche se le posizioni di partenza dei blocchi non erano identiche.
A differenza di molti altri progetti che vedono coinvolto Musk, OpenAI è un’organizzazione no-profit. Il suo scopo non è quello di guadagnare, ma di sostenere e guidare l’innovazione dell’AI.

Tecnologia robotica per tutti

Nel mese di dicembre, l’azienda ha lanciato Universe, una piattaforma open source in cui gli utenti avevano la possibilità di allenare e misurare l’AI utilizzando giochi, browser web e vari software. In sostanza, la piattaforma dà all’AI la capacità di replicare il modo in cui gli esseri umani utilizzano i computer, consentendo agli sviluppatori di addestrare i loro sistemi per completare qualsiasi compito che gli esseri umani possano svolgere, purché si basi su un computer.

Roboschool

Ora OpenAI ha presentato Roboschool, un software open-source per la simulazione dei robot. Dispone di una dozzina di ambienti in cui gli utenti possono testare i loro robot ed è integrato con OpenAI Gym, un toolkit che consente agli sviluppatori di dare e ricevere feedback sul proprio lavoro, attraverso una comunità online a supporto dello sviluppo dell’AI.

Nuovi odi per insegnare ai Robot

Al di là di OpenAI, i ricercatori stanno già trovando modi per insegnare ai robot di fare tutto, dal leggere al sognare. Hanno creato sistemi AI che possono imparare da soli e anche quelli che possono insegnare a vicenda. L’educazione viene reinventata da zero per poter soddisfare le esigenze di questa nuova tecnologia, e man mano che le nostre controparti meccaniche diventano sempre più intelligenti, le nostre vite saranno via via più facili, sicure e forse anche un po’ più divertenti.

Google I/O 2017: i 5 grandi annunci

Google I/O 2017: i 5 grandi annunci

A Google I/O, la conferenza annuale di Google per gli sviluppatori l’azienda ha mostrato alcune delle migliori applicazioni pratiche sia dell’AI che dell’apprendimento automatico. Probabilmente non si tratta di nulla di rivoluzionario, ma quanto presentato dimostra la natura incrementale dello sviluppo del computing. Google I/O ha segnato un’accelerazione nello sviluppo della visione di Google sul futuro

1/Google I/O: Google Lens

Ci vorrà del tempo prima che Google Lens sia disponibile, ma è stato il punto centrale del keynote alla Google I/O. L’applicazione utilizza il riconoscimento delle immagini per identificare gli oggetti visualizzati nell’obiettivo della fotocamera, e lo fa in tempo reale. Inoltre è possibile puntare un dispositivo verso l’etichetta collocata dietro ad un router Wi-Fi – quello che contiene la password – e l’applicazione saprà automaticamente che si tratta di una password Wi-Fi e connetterà il dispositivo alla rete, senza alcuna digitazione manuale.
Altri usi potrebbero essere utili in un ristorante per avere una panoramica delle recensioni o per consultare il menu istantaneamente, per tradurlo e per mostrare le foto di alcuni piatti.
Google non ha comunicato la data di rilascio di Google Lens, ma ha fatto sapere che farà parte del suo assistente e Foto – inizialmente – anche sarebbe ben più utile di integrarlo nell’app della fotocamera.

2/ Headset standalone per Daydream

Google ha presentato l’anno scorso la sua piattaforma di realtà virtuale (VR) Daydream. Ci sono stati un paio di annunci rilevanti su questo fronte. In primo luogo, i nuovi dispositivi Samsung Galaxy lavoreranno con Daydream e si tratta di uno sviluppo interessante perché finora i dispositivi Samsung hanno lavorato solo con Gear VR, un headset alternativo che gestiva l’Oculus VR, di proprietà di Facebook.
Samsung produce la Gear VR e, pertanto, consentendo ai suoi smartphone di essere compatibili con Daydream potrebbe far saltare persino il proprio prodotto. Sembra che Samsung si preoccupi di più di assicurarsi che il Galaxy sia il telefono che il mercato predilige e che si occupi di molto meno di vendere headset a buon mercato.
Google durante la Google I/O ha anche annunciato il lancio di due headset indipendenti di Daydream che non richiederebbero uno smartphone per funzionare.
Inoltre sta collaborando con HTC – che già produce Vive VR di fascia alta – e Lenovo per realizzare dei dispositivi. Gli headset utilizzeranno la tecnologia di localizzazione della posizione, il che significa che saranno in grado di rilevare quando si cammina. Nessuna data di uscita per ora.
“Daydream ha avuto un inizio impegnativo”, ha osservato Geoff Blaber, analista di CCS Insight “Google spera che un headset dedicato, con prestazioni superiori, contribuirà ad espandere ulteriormente il mercato, ma la vera sfida rimane la mancanza di contenuti”.

3/ Strumenti per le immagini migliorati

Le immagini al centro dell aGoogle I/O: l’applicazione Foto di Google vanta 500 milioni di utenti, è il segreto del suo successo sta nell’utilizzo dell’apprendimento automatico per ordinare le immagini e comprendere ciò che contengono. Il passo successivo che l’app potrà offrire sarà quello di aiutare a condividere le foto più facilmente.
Utilizzando il riconoscimento facciale, Google foto ora metterà a fuoco un soggetto e suggerirà automaticamente di inviare quell’immagine all’interessato oppure ad un gruppo di utenti.
La possibilità di condividere le librerie comporta un ulteriore passo avanti. Il software riconoscerà i volti e creerà un album dedicato. E Google ha assicurato che non ci sarà alcuna condivisione inaspettata di immagini che si desidera rimangano segrete. Utilizzando l’apprendimento automatico e l’applicazione AI, l’applicazione rimuoverà anche gli oggetti indesiderati dalle immagini.

google i/o

4/ VPS – Visual Positioning System (Sistema di Posizionamento Visuale)

Sempre più utenti hanno familiarità con il GPS – sistema di posizionamento globale – ma la tecnologia ha ancora delle mancanze in termini di precisione. Google durante la Google I/O ha affermato che il sistema di posizionamento visivo – VPS – possa sopperire a quella mancanza. Utilizzando Tango, una tecnologia di visualizzazione 3D, VPS cerca oggetti riconoscibili intorno al dispositivo, per esaminare dove ci si trova con una precisione di pochi centimetri.
Clay Bavor, a capo della realtà virtuale di Google, ha dichiarato che l’applicazione sia i grado di localizzare con una precisione estrema la posizione. Attualmente il problema è che gli smartohone dispongono a malapena della tecnologia Tango, e quindi anche se il VPS sia già pronto, pochissime persone potranno utilizzarlo. L’anno scorso Lenovo ha rilasciato un dispositivo abilitato a Tango, ed un altro lo si aspetta nel 2017.

google i/o

5/ Google I/O 2017: Google Home migliorato e Assistant su iPhone

Google Home, l’assistente indipendente della società, fa ancora parte del sistema Alexa di Amazon. Google ha annunciato alcune nuove funzionalità progettate per far fronte a questo problema. In primo luogo ci sono le chiamate, ora – infatti – è possibile effettuare chiamate telefoniche tramite Home e, grazie alle sue capacità di riconoscimento vocale, consentire ai diversi membri di una famiglia di chiamare dai propri numeri personali attraverso lo stesso dispositivo Home.
Il dispositivo offrirà anche informazioni proattive, come degli avvisi in caso di traffico intenso – basandosi sugli appuntamenti di Google Calendar. “L’assistenza proattiva” cammina su una linea molto sottile: questi dispositivi funzionano attualmente su base parlante e tutti vorrebbero che rimanessero tali.
Google, ha annunciato alla Google I/O,  sta rilasciando anche un kit di sviluppo software, SDK, per consentire agli sviluppatori di terze parti di integrare l’assistente di Google nei propri prodotti. Amazon sta facendo lo stesso con Alexa.
Significativa è anche la decisione presa da Google di portare la propria applicazione agli utenti iPhone, anziché a quelli Android.

 

google i/O home

Pixartprinting installa nuovi sistemi Komori HUV/LED HUV

Pixartprinting installa nuovi sistemi Komori HUV/LED HUV

Pixartprinting mette a segno la più importante installazione europea di sistemi a polimerizzazione HUV firmati Komori. In funzione a Quarto d’Altino tre nuove GL840P LED HUV e due dei modelli già implementati upgradati con il sistema H-UV. Il leader dell’Upload&Print conquista così il primato assoluto di reparto produttivo con il maggior numero di sistemi 8 colori 70×100 del produttore giapponese dotati di questa tecnologia di asciugatura.

“L’ampliamento del catalogo prodotti è legato a doppio filo all’innovazione tecnologica che permea il nostro DNA e si declina in ogni reparto, rappresentando la caratteristica distintiva della nostra strategia di sviluppo. – spiega Paolo Roatta, Amministratore Delegato Pixartprinting Mettere a punto processi sempre più automatizzati e standardizzati ci permette di ridurre i tempi di produzione elevando i livelli qualitativi. Prestazioni che assicurano una maggiore efficienza nell’evasione degli ordini a vantaggio della soddisfazione dei clienti”.

La scelta di passare da una configurazione convenzionale alla polimerizzazione HUV e LED HUV è stata dettata da esigenze di ottimizzazione del ciclo produttivo. Con asciugatura più rapida e tempi di avviamento ridotti, questa tecnologia consente di stampare con maggiore velocità su un’ampia gamma di supporti, incrementando la produttività complessiva e accelerando i tempi di consegna. Obiettivo ulteriormente rafforzato dall’eliminazione dell’antiscartino che, oltre a garantire un’ambiente di lavoro più pulito, permette di eliminare un passaggio di finitura con conseguente evasione degli ordini più tempestiva. Anche la qualità di stampa ha rappresentato una leva importante per la migrazione di Pixartprinting all’HUV in quanto offre eccellenza di output e maggiore versatilità nella realizzazione di prodotti anche di alta gamma.

In linea con lo stile Pixartprinting, la configurazione delle macchine richiesta spinge al massimo le prestazioni in termini di automatizzazione dei processi includendo le funzioni di cambio lastre, messa a registro e gestione colore completamente automatici e un nuovo sistema di alimentazione aria tramite l’utilizzo di pompe e compressori a basso impatto energetico. Inoltre, la tecnologia Komori LED HUV e HUV, riducendo la temperatura erogata per la polimerizzazione degli inchiostri rispetto ai forni tradizionali, contribuisce ad aumentare la sicurezza dell’ambiente di lavoro. A questo si somma il fatto che le GL840P LED HUV sono state attrezzate con sistema di incapsulamento dei gruppi stampa per eliminare la nebulizzazione dell’inchiostro durante la produzione a vantaggio della salute degli operatori.

“Il lavoro sinergico tra il nostro reparto R&D e quello dei produttori di attrezzature dimostra la nostra volontà di costruire partnership strategiche condividendo obiettivi importanti – sottolinea Alessio Piazzetta, Plant Manager Pixartprinting. – Confrontarci con interlocutori tecnologici come Komori, disposti a reingegnerizzare, progettare sistemi on-demand e a customizzare impianti per soddisfare le nostre esigenze, ci ha permesso nel tempo di raggiungere risultati senza precedenti. Il progetto di aggiornamento del parco offset è stato particolarmente sfidante, ma grazie al lavoro di squadra abbiamo ottenuto in tempi rapidi prestazioni al di sopra delle aspettative”.

Come il B2B utilizza i dati per catturare i clienti

Come il B2B utilizza i dati per catturare i clienti

Avendo a disposizione sempre più dati riguardanti il proprio pubblico di destinazione, per le aziende marketer B2B è possibile ottenere forme di comunicazione personalizzate sia per singoli acquirenti che per account specifici. Ma l’esecuzione di queste strategie solo raramente risulta semplice, secondo un report stilato da eMarketer che si chiama: “B2B Personalization: Delivering One-to-One Experiences to Buyers” (ovvero: “Personalizzazione B2B: fornitura di esperienze one-to-one per gli acquirenti”.

Utilizzando i dati in modo efficace, i marketers B2B possono iniziare a conoscere – così come a comprendere – non soltanto i loro acquirenti di destinazione, ma anche gli account di destinazione, usufruendo di una personalizzazione precisa e accurata e la ricerca mostra che le aziende B2B stiano cominciando ad adottare sempre di più l’analisi dei dati.

Un sondaggio condotto dalla Dimensional Research for Progress nel mese di marzo del 2016, ha visto coinvolti i marketer B2B di tutto il mondo. Attraverso le interviste si è scoperto che il 70% degli intervistati utilizza i big data, informazioni storiche e analisi predittive per migliorare l’efficacia di marketing. Inoltre, secondo un sondaggio che risale al mese di aprile 2016, condotto da Regalix, si è scoperto che quasi quattro su dieci marketer B2B abbiano dichiarato che un vantaggio fondamentale dell’analisi di marketing consista nell’identificazione precisa delle esigenze del cliente.

Al fine di fornire un’esperienza non solo accurata, ma anche personalizzata il B2B dovrà avvalersi di diverse fonti dalle quali ottenere, e quindi raccogliere, dati sugli acquirenti.

In un sondaggio che risale ad agosto 2016 del Content Marketing Institute e MarketingProfs si è scoperto che circa la metà dei marketers B2B del Nord America abbiano utilizzato l’analisi dei siti web, la ricerca delle parole chiave, i feedback dei dipendenti e l’analisi competitiva al fine di conoscere il pubblico al quale puntare. Le fonti di dati meno utilizzate includono l’analisi del database (31%) e la verifica dei dati esistenti del compratore (24%).

Una ricerca del mese di aprile del 2016 della Altimeter mostra anche l’importanza del disporre di una varietà di fonti di dati per creare contenuti personalizzati e mirati. Rispettivamente, le metriche dei social media (65%) e l’analisi dei siti web (63%) rappresentavano le prime due fonti di dati utilizzate da i professionisti delle strategie dei contenuti intervistati in Nord America e nell’Europa occidentale. Circa la metà di loro ha anche detto che utilizzava abitualmente i dati ottenuti dai registri dei servizio clienti e dalle indagini sui clienti per la personalizzazione dell’offerta.

Whitney Powell, dell’agenzia di marketing B2B DWA Media, utilizza molteplici fonti di dati per ottenere il pubblico ideale al quale indirizzare campagne programmate e mirate che puntano a gestioni individuali dei clienti e secondo lui: “Si tratta di una combinazione di dati ottenuti dal CRM [customer relationship management – gestione dei rapporti con i clienti], dalle piattaforme di gestione dei dati o da siti di nicchia di base che devono essere riuniti. Usiamo l’analisi dei dati per convalidare il pubblico e anche per garantire che il pubblico sia proprio quello giusto”.

Digitalic X 2017