Come il B2B utilizza i dati per catturare i clienti

Come il B2B utilizza i dati per catturare i clienti

Avendo a disposizione sempre più dati riguardanti il proprio pubblico di destinazione, per le aziende marketer B2B è possibile ottenere forme di comunicazione personalizzate sia per singoli acquirenti che per account specifici. Ma l’esecuzione di queste strategie solo raramente risulta semplice, secondo un report stilato da eMarketer che si chiama: “B2B Personalization: Delivering One-to-One Experiences to Buyers” (ovvero: “Personalizzazione B2B: fornitura di esperienze one-to-one per gli acquirenti”.

Utilizzando i dati in modo efficace, i marketers B2B possono iniziare a conoscere – così come a comprendere – non soltanto i loro acquirenti di destinazione, ma anche gli account di destinazione, usufruendo di una personalizzazione precisa e accurata e la ricerca mostra che le aziende B2B stiano cominciando ad adottare sempre di più l’analisi dei dati.

Un sondaggio condotto dalla Dimensional Research for Progress nel mese di marzo del 2016, ha visto coinvolti i marketer B2B di tutto il mondo. Attraverso le interviste si è scoperto che il 70% degli intervistati utilizza i big data, informazioni storiche e analisi predittive per migliorare l’efficacia di marketing. Inoltre, secondo un sondaggio che risale al mese di aprile 2016, condotto da Regalix, si è scoperto che quasi quattro su dieci marketer B2B abbiano dichiarato che un vantaggio fondamentale dell’analisi di marketing consista nell’identificazione precisa delle esigenze del cliente.

Al fine di fornire un’esperienza non solo accurata, ma anche personalizzata il B2B dovrà avvalersi di diverse fonti dalle quali ottenere, e quindi raccogliere, dati sugli acquirenti.

In un sondaggio che risale ad agosto 2016 del Content Marketing Institute e MarketingProfs si è scoperto che circa la metà dei marketers B2B del Nord America abbiano utilizzato l’analisi dei siti web, la ricerca delle parole chiave, i feedback dei dipendenti e l’analisi competitiva al fine di conoscere il pubblico al quale puntare. Le fonti di dati meno utilizzate includono l’analisi del database (31%) e la verifica dei dati esistenti del compratore (24%).

Una ricerca del mese di aprile del 2016 della Altimeter mostra anche l’importanza del disporre di una varietà di fonti di dati per creare contenuti personalizzati e mirati. Rispettivamente, le metriche dei social media (65%) e l’analisi dei siti web (63%) rappresentavano le prime due fonti di dati utilizzate da i professionisti delle strategie dei contenuti intervistati in Nord America e nell’Europa occidentale. Circa la metà di loro ha anche detto che utilizzava abitualmente i dati ottenuti dai registri dei servizio clienti e dalle indagini sui clienti per la personalizzazione dell’offerta.

Whitney Powell, dell’agenzia di marketing B2B DWA Media, utilizza molteplici fonti di dati per ottenere il pubblico ideale al quale indirizzare campagne programmate e mirate che puntano a gestioni individuali dei clienti e secondo lui: “Si tratta di una combinazione di dati ottenuti dal CRM [customer relationship management – gestione dei rapporti con i clienti], dalle piattaforme di gestione dei dati o da siti di nicchia di base che devono essere riuniti. Usiamo l’analisi dei dati per convalidare il pubblico e anche per garantire che il pubblico sia proprio quello giusto”.

Nature Conservancy, la gestione forestale si fa digitale

Nature Conservancy, la gestione forestale si fa digitale

Mantenere una foresta in salute significa spesso decidere cosa fare albero per albero, ma anche curare ettaro per ettaro . La Nature Conservancy sta lavorando a strumenti che facilitino i servizi di tutela e conservazione dei parchi e l’operato dei vigili del fuoco al fine di mantenere vive le foreste, conservandone l’integrità e prevenendo gli incendi.

Uno degli approcci tradizionali della gestione forestale prevede che qualcuno perlustri la foresta e che scopra quanto stia accadendo in quell’ambiente, armato di lattina di vernice spray per segnare gli alberi, distinguendo quelli da abbattere da quelli da mantenere. Un’operazione sicuramente accurata, ma non esattamente veloce da eseguire.

Un altro metodo prevede invece la marcatura su una mappa in cui si indicano – area per area – gli interventi da compiere. Ma questa modalità manca dell’approccio dettagliato del primo metodo, ma chi dovrà procedere con i tagli degli alberi sarà costretto a muoversi più lentamente, mentre cerca di determinare quanto richiesto e stabilire la zona esatta nella quale intervenire.

Ecco una situazione in cui la tecnologia può veramente diventare un’ancora di salvezza.

Neil Chapman – della Nature Conservancy – sta conducendo un progetto che mira a rendere questa parte della manutenzione delle foreste più semplice, più economica e più veloce. E con la devastazione causata dagli incendi più recenti, non si tratta solo di godere di foreste in salute, ma di prevenire gravi disastri.
L’Arizona settentrionale è la patria della più grande foresta del paese, Ponderosa, e almeno un milione di acri sono stati coinvolti in incendi catastrofici nel corso degli ultimi 15 anni” ha detto Chapman in un’intervista “Le pratiche forestali devono essere scalate per affrontare questo problema. E non si hanno risorse di tempo e denaro sufficienti per dipingere gli alberi di 50.000 ettari ogni anno. Quindi abbiamo pensato di progettare qualcosa che permetterà al settore forestale di aumentare la velocità dei processi, pur avvalendosi di professionisti sul campo”.

Quello che ne risulta è un sistema in grado di unire il metodo immediato della verniciatura a quello della scalabilità delle indicazioni prescritte. In sostanza, un lavoratore della forestale camminerà come prima per osservare direttamente la foresta, ma invece di avere in mano una vernice spray, sarà dotato di un tablet.

In questo modo sarà possibile annotare le posizioni dei singoli alberi – o di gruppi di essi – attraverso le coordinate GPS, senza etichettarli singolarmente. Invece, dopo aver mappato una zona, si potrà realizzare una mappa sul tablet contenente tutti i dettagli. Questi dati potranno essere regolati successivamente e quindi potranno essere archiviati e consultati velocemente, ove necessario.

Non soltanto verranno date istruzioni più dettagliate e una maggiore granularità, ma il tablet registrerà anche l’esatta posizione, il tempo e il diametro degli alberi abbattuti. Ciò consentirà di risparmiare tempo, mole di documentazione e di seguire i processi di riforestazione.

Tutto questo è importante perché il servizio forestale ha linee guida più complesse in materia di recupero e raccolta, ancor più delle autorità cittadine o delle contee, che dispongono di foreste relativamente piccole e omogenee da gestire.

Un test pilota condotto da Nature Conservancy su 327 ettari ha fatto scoprire che, rispetto alla pittura manuale degli alberi, il metodo digitale costa meno della metà ed è stato cinque o sei volte più veloce, mentre la produttività rimaneva simile a quella dei vecchi metodi.

Si è resa necessaria una modifica dell’interfaccia dell’hardware, sulla base dei feeback ricevuti. Ad esempio si è dovuta aumentare la potenza dei tablet; alcune mappe, infatti, spingevano al limite la velocità dei processori e zoommare su immagini da 300MB non risultava affatto veloce. I lidar e i droni sono stati anch’essi coinvolti nei test per il monitoraggio delle fasi e delle mappature dall’alto.
Il Forest Service statunitense è rimasto colpito dall’efficacia di questa strumentazione e dell’idea di Nature Conservancy e ha dato il via all’utilizzo per 5.000 acri nella Coconino National Forest e per 3,800 acri nella Kaibab National Forest.

Nel caso in cui questo sistema si rivelasse efficace, ci si ritroverebbe a poter disporre di un mezzo in grado di migliorare radicalmente le prestazioni di ranger e forestali nel momento in cui operano in tutela della conservazione delle foreste.

Quando, dove e come sono scattate le foto di stock

Quando, dove e come sono scattate le foto di stock

Depositphotos analizza costantemente grandi volumi di dati, che consentono di determinare le ultime tendenze in vari settori e in vari ambiti della fotografia di stock. Gli autori che collaborano con www.deposiphotos.com caricano circa 40.000 nuovi files ogni giorno.

Oltre ad informazioni generali sulla location, la categoria e le parole chiave, le foto contengono informazioni EXIF – i metadati tecnici incorporati in ciascun file. Un’informazione EXIF permette di vedere dove, quando e in che modo la foto è stata scattata, così come quale fotocamera è stata utilizzata e quali impostazioni di camera sono state scelte per realizzare lo scatto.

Depositphotos ha analizzato i dati EXIF di oltre 60 milioni di immagini presenti nel suo archivio e creato un’infografica per scoprire quali sono le attrezzature più popolari e le impostazioni più utilizzate dai fotografi. Abbiamo ottenuto anche i dati relativi alle stagioni preferite per realizzare immagini di stock.

La maggior parte delle foto nel database sono state scattate in Russia (20,41%), Ucraina (15,3%) e negli Stati Uniti (7,16%). L’Europa è la principale regione in cui i fotografi realizzano la maggior parte delle foto di stock.

Per quanto riguarda le attrezzature utilizzate, Canon (37,78%) batte Nikon (18,22%) e il terzo posto va a Sony (2,99%). I 3 modelli di fotocamera più utilizzati dai fotografi sono Canon EOS 5D Mark II, EOS 5D Mark III e EOS 6D.

exif depositphotos foto di stock

I dati sulle impostazioni delle fotocamere ci dicono molto sui tipi di immagini più popolari. La lunghezza focale più popolare, 100 mm, viene utilizzato per riprendere panorami e oggetti in lontananza. 50 mm è la lunghezza focale universale, più spesso utilizzata per riprendere oggetti a distanza ravvicinata. L’apertura f / 8 è praticamente unica per la maggior parte degli scatti, f / 5.6 è tipicamente usata per i ritratti grazie all’effetto sfocato che da allo sfondo, ef / 11 è la più adatta per i paesaggi.
Come era prevedibile, i fotografi scattano più foto in primavera e in estate. Natura, fiori, giornate di sole e viaggi estivi sono per loro la perfetta fonte di ispirazione.

Flourish lancia la piattaforma per la visualizzazione dei dati

Flourish lancia la piattaforma per la visualizzazione dei dati

Flourish, una nuova startup nata nei pressi di Londra, ha lanciato quella che ha definito come una piattaforma per la visualizzazione dei dati, progettata per facilitare la visualizzazione, ma anche la comprensione dei dati. Un tale servizio risulterebbe così di grande utilità non soltanto per molte imprese, ma anche per quelle organizzazioni che non sfruttano al meglio il potenziale dei dati a loro disposizione oppure per chi non sa come condividere adeguatamente quanto emerge dai dati.

La società ha ricevuto un fondo di $ 1 milione da Robin e Founder Collective.

Fondata dall’ex giornalista – specializzato nei dati – Duncan Clark e lo scienziato informatico Robin Houston, la piattaforma di Flourish ha iniziato il suo sviluppo nel mese di marzo dello scorso anno, a seguito dell’ingresso della startup nell’acceleratore Founders Factory, il cui programma dedicato ai media è in partneship con The Guardian News & Media. Otto mesi più tardi, i due erano stati in grado di realizzare uno strumento di visualizzazione dei dati utilizzato da clienti come Google, Fannie Mae, la BBC e JLL, per aiutarli a presentare i dati e raccontare storie basate sui dati stessi, storie destinate sia al pubblico interno che a quello esterno.

“Quasi tutte le organizzazioni non sanno come presentare e rendere visuali i dati. Gli strumenti disponibili spesso sono limitanti, di difficile fruizione, lunghi da elaborare e costosi” secondo quanto raccontato da Clark, che prosegue “Flourish risolve questo problema consentendo a chiunque di riunire i dati e di mostrarli con modelli di visualizzazione provenienti da una libreria aggiornata continuamente. Le organizzazioni possono realizzare da sé i modelli oppure commissionarne di propri. In questo modo offriamo una flessibilità illimitata, consentendo loro di sfruttare l’enorme potenziale della community mondiale di sviluppatori di visualizzazione dei dati”.

Il riferimento ai template è la chiave di Flourish per prosperare. La piattaforma consente di creare rapidamente visualizzazioni di alta qualità, storie, presentazioni e altri contenuti interattivi, semplicemente immettendo i propri dati e un testo all’interno di modelli configurabili. L’idea punta a dimezzare – o almeno a ridurre drasticamente – i costi onerosissimi di estrazione e esibizione dello story telling basato sui dati.

La startup punta a rendere Flourish una palestra per sviluppatori, affinché possano caricare i propri template e condividerli con gli utenti.

In termini di modelli di business, Flourish è gratuito per tutti quei progetti e modelli che verranno resi visibili pubblicamente, ma le funzionalità premium – a pagamento quindi – saranno destinate ai privati, ai progetti privati, alla gestione degli utenti e al supporto. La società ha anche un servizio di consulenza che offre modelli su misura, qualcosa che altri sviluppatori e altre agenzie che si avvalgono di Flourish potrebbero anche pensare di offrire ai clienti.

Saul Klein, General Partner della LocalGlobe, ha dichiarato: “La necessità di comprendere i dati e di comunicarli in modo efficace è sempre più impellente. Duncan e Robin hanno un’esperienza unica nell’aiutare le aziende come Fannie Mae, Google e The Guardian a risolvere questi problemi in un modo che non è semplicemente bellissimo e interattivo, ma soprattutto un modo che consente di raccontare una storia. Pensiamo che la potenza e la semplicità di Flourish abbia un potenziale enorme e siamo entusiasti all’idea di vedere i semi di Flourish germogliare e prosperare”.

I 3 problemi più frequenti dell’AI nei progetti aziendali

I 3 problemi più frequenti dell’AI nei progetti aziendali

Ogni tecnologia dirompente porta con sé vantaggi e svantaggi e l’AI non fa eccezione a questa regola. Tutte le società che si impegnano in questo tipo di iniziative hanno dovuto introdurre una serie di modifiche e il cambiamento tecnologico all’interno di un’organizzazione presenta un insieme di sfide che a volte può creare problemi.

Intelligenza artificiale (AI) è un termine ampio che include un po’ di tutto, dai software di riconoscimento delle immagini alla robotica. Il livello di evoluzione di ciascuna di queste tecnologie varia fortemente. Tuttavia, il numero di innovazioni e le scoperte che hanno portato a potenziare e a rendere l’AI sempre più efficiente in vari ambiti (tra cui la medicina, lo shopping, la finanza, le notizie e la pubblicità) è un fenomeno in crescita.

La cosa importante per ogni azienda sarà, però, quella di individuare le sfide da affrontare, responsabilizzandosi in modo che da queste si possa trarre un pieno vantaggio di benefici, riducendo al minimo quei compromessi che i problemi di intelligenza artificiale possono imporre.

In seguito vi proponiamo i problemi più comuni in cui si imbatte chi scegli di attuare un progetto commerciale con l’intelligenza artificiale:

1. Diverso approccio nello sviluppo
La maggior parte dello sviluppo in un ambiente tradizionale segue le solite fasi di analisi, progettazione, costruzione, test e distribuzione. L’ambiente dell’intelligenza artificiale è molto diverso. Per la maggior parte del tempo, lo sviluppo corrisponde all’individuazione delle fonti di dati e quindi della raccolta dei loro contenuti, del loro risanamento e della loro cura. Un tale approccio richiede competenze diverse e diversi tipi di mentalità, ma anche diverse metodologie. Inoltre, i sistemi intellettivi che si basano sull’AI devono essere formati in un particolare ambito.
Nel caso in cui volessimo paragonare il sistema convenzionale con quello della programmazione per l’AI, le differenze risulterebbero come lo schema che vedete qui sotto:

problemi intelligenza artificiale

2. Un sistema è ottimale quando lo sono anche i dati che gli si immettono
Tutti sanno che l’AI ha bisogno di dati per imparare a conoscere le cose. AI e apprendimento automatico si affidano quindi a enormi quantità di dati di alta qualità, dai quali osservano le tendenze e i modelli di comportamento, adattandosi a questi rapidamente, così da migliorare la precisione delle conclusioni che derivano dall’analisi dei dati. In sostanza, prima si ottengono i dati, poi si ottiene l’AI.

Questi sistemi non solo richiedono più informazioni rispetto agli esseri umani – per capire i concetti o per riconoscere le caratteristiche – ma hanno anche bisogno di centinaia di migliaia di ripetizioni per diventare affidabili. Un’altra cosa importante da precisare è la qualità dei dati utilizzati, indispensabili per addestrare i modelli predittivi. I set di dati devono essere estremamente rappresentativi ed equilibrati, in caso contrario, il sistema finirà per adottare pregiudizi e quindi potenziali errori che alcuni gruppi di dati contengono.

3. Non è chiaro il modo in cui vengano generati i dati
Un altro dei problemi che riguarda l’intelligenza artificiale, si nasconde nella sua natura sperimentale. È difficile dire quale grado di miglioramento possa portare ad un progetto, e come diretta conseguenza è quasi impossibile prevedere il ROI. Tutto ciò rende molto difficile ottenere che tutti comprendano un intero concetto. Per ottimizzare i risultati è indispensabile che un team sia in grado di scrivere o di adattare pubblicamente gli algoritmi disponibili, selezionando l’algoritmo giusto in base al risultato desiderato e unire necessariamente tutti gli algoritmi per ottimizzare ogni risultato.

SAS: i dati sono il cuore della digital transformation

SAS: i dati sono il cuore della digital transformation

“La trasformazione digitale è un’onda in piena che presenta grandi opportunità. In Italia ci sono tutte le premesse per portare l’innovazione. Il nostro Paese si caratterizza da sempre per la sua intrinseca capacità di innovare; pensiamo ai distretti industriali e alle tante eccellenze dell’imprenditoria. È necessario mettere a fattor comune le capacità delle aziende, con le loro aree di forza e di trasformazione, la pubblica amministrazione, le università e i centri di ricerca per creare quelle competenze che sono fondamentali al processo di cambiamento. Il nostro ruolo come SAS è porsi come facilitatore e attivare progetti comuni che contribuiscano ad innescare il processo di trasformazione necessario al nostro sistema produttivo”
Marco Icardi, Amministratore Delegato di SAS Italy e SAS Regional Vice President

Marco Icardi - SAS

Marco Icardi – SAS

La digital transformation porta le imprese a dover affrontare sfide che riguardano la capacità di pensare a nuovi use case basati sui dati, andando oltre l’analisi tradizionale. Ne abbiamo parlato con Angelo Tenconi, Analytics & Technology Director di SAS.

Quali sono i trend in atto?
La trasformazione digitale in corso porta a un adeguamento delle piattaforme, a un nuovo modo di interagire coi clienti, all’evoluzione dei sistemi IT. È un trend diffuso in tutti i settori merceologici che porta a un cambio di paradigma: il dato è al centro di questo ecosistema. La capacità di analisi è sempre più importante, le informazioni sono tante, anche complesse. Ora i dati non strutturati devono essere inseriti all’interno del processo di business e governati per produrre informazioni corrette e di valore. Ad esempio, si studia direttamente il comportamento dei clienti, sfruttando i dati per avere una visione più ampia dell’individuo che si nasconde dietro alla figura degli interlocutori aziendali.

Che tipo di soluzioni è necessario implementare?
Il tema della digitalizzazione e dei big data comporta una modernizzazione: significa avere infrastrutture e modalità di implementazione agili, proprio perché una delle caratteristiche dell’era digitale è il fattore tempo e la velocità con cui i progetti vengono implementati. In questo contesto è necessario pensare a nuove modalità di interazione e di contatto con i clienti. Essi sono infatti sempre più abituati a interagire tramite i canali digitali e sempre più inclini a utilizzare mobile e app, pertanto anche il contatto deve adeguarsi a queste nuove modalità di interazione. Grazie agli advanced analytics le aziende sono in grado di sfruttare realmente i dati. È sempre più difficile infatti, vista la quantità e la varietà dei dati, poterli sfruttare attraverso tradizionali tool di business intelligence che non hanno componenti analitiche automatiche e senza un’intelligenza artificiale che permetta di estrarre indicatori di business in modo automatico. Nel processo di digitalizzazione, i dati prodotti sono il cuore, la parte centrale. Il mezzo che permette di sfruttarli sono i sistemi analitici di nuova generazione che si basano su machine learning, deep learning, cognitive computing: concetti che permettono di aiutare l’umano a interagire con i dati.

Angelo Tenconi - SAS

Angelo Tenconi – SAS

Che importanza ha la visualizzazione dei dati nella comprensione degli stessi?
La visualizzazione è – e sarà sempre – molto importante. Permette di sintetizzare in modo facile il risultato dell’analisi e renderlo chiaro all’utilizzatore, qualunque sia il suo livello di competenza. La visualizzazione rende i sistemi di business intelligence adeguati a chi li legge. Ricordiamo poi che i dati non vanno solo visualizzati ma anche compresi: al loro interno nascondono infatti fenomeni e informazioni.

Qual è il ruolo del data scientist?
La figura del data scientist ha un ruolo rilevante nell’organizzazione, è colui in grado di estrarre valore dai dati. Ma ciò che produce il data scientist in termini di modelli analitici evoluti, deve necessariamente essere portato all’interno dei processi dell’azienda per diventare patrimonio di tutti. Quando si parla di strategia big data è importante definire con i dipartimenti di business gli use case innovativi che si vogliono indirizzare. Grazie ai data scientist, si devono poi comprendere i fenomeni che si nascondono nei dati per estrarre valore di business, e infine, con il dipartimento IT, si deve fare in modo che il risultato venga strutturato e diventi patrimonio dei processi operativi di tutta l’azienda.

SAS analytics dati

Esiste una tipologia di azienda che può beneficiare più di altre dell’analisi dei dati?
Alla base della trasformazione digitale ci sono i dati e la loro analisi. L’analisi dei dati rappresenta infatti un’importante chiave di lettura della realtà e del mercato, di oggi e di domani, per le aziende di ogni settore e dimensione.Grazie agli advanced analytics è possibile tenere in ordine i dati disponibili, trovare relazioni inaspettate tra i dati e prevedere scenari di business futuri. Gli analytics sono come un navigatore: aiutano a orientarsi e a trovare la strada giusta in tempo reale. Gli analytics integrati nel processo decisionale permettono di elaborare decisioni ottimizzando le nostre scelte e indirizzando la guida dell’azienda secondo i parametri e target che sono stati assegnati. Anche le Pmi sono attente al tema, stanno investendo nell’industry 4.0 e nell’evoluzione digitale delle catene produttive. C’è attenzione, c’è interesse, c’è volontà. L’iperammortamento e il piano nazionale per l’industria 4.0, recentemente varato dal governo italiano, aiutano significativamente il mercato.

Quali vantaggi “concreti” possono ottenere le aziende?
I vantaggi sono molteplici, evidenti e riguardano tutti i settori aziendali e le imprese di ogni dimensione. Dall’efficienza produttiva alla capacità di controllare la supply chain, o poter avere una conoscenza più diretta e profonda di ogni cliente. Prendiamo ad esempio il settore assicurativo. Attraverso la telematica, le assicurazioni possono conoscere perfettamente il comportamento del cliente in tempo reale. Oppure le banche, che stanno affrontando una grande modernizzazione con la digitalizzazione del proprio modello di business, cambiando così le modalità di interazione con i propri clienti. Il tempo è determinante. Progettualità di questo tipo devono necessariamente essere veloci. La parola chiave è “agile” sia in termini di infrastruttura sia in termini di cultura da parte dei team coinvolti nei progetti. Si passa in questo modo da modalità tradizionali di implementazione, a un approccio agile, con un’interazione continua tra il business e le funzioni aziendali per poter valutare e validare in modo veloce nuovi progetti. In questo contesto i laboratori di innovazione, come l’Innovation Hub di SAS, sono elementi essenziali perché permettono di sperimentare in modo veloce nuove idee di business e valutare la loro realizzabilità, se sono in grado di portare risultati concreti oppure se destinati al fallimento.

Cosa ci aspetta in futuro?
L’evoluzione prevede una trasformazione digitale sempre più diffusa, nel futuro molti settori merceologici dovranno adeguarsi al cambiamento. Questo significa che, la mole dei dati prodotti aumenterà esponenzialmente. Parallelamente, gli analisti dicono che la capacità di storage non aumenterà così significativamente. I dati dovranno quindi essere analizzati alla fonte, non si riuscirà a veicolarli in un punto centralizzato. Le evoluzioni tecnologiche andranno in questa direzione, per studiare i dati in tempo reale e applicare analisi offline. Sempre più informazioni saranno analizzate in motion, in stream, con l’obiettivo di “conservare” solo ciò che è effettivamente utile ed eliminare il “rumore” inutile. In un mondo veloce e digitalizzato diventa necessario sfruttare i dati dove vengono generati, pensiamo a progetti che riguardano l’industria 4.0, come ad esempio la manutenzione predittiva (ovvero poter prevedere in anticipo un guasto). Previsioni di questo tipo vengono effettuate tramite analytics sofisticati di machine learning, e per essere utili e di valore per l’azienda, devono necessariamente essere eseguiti in tempo reale. Proprio per questo SAS sta lavorando per spostare le capacità analitiche dove i dati vengono generati. Si inizia quindi a parlare di Analytics of Things.

Più sono tanti i dati, più sono alti i rischi? Come ci si protegge?
Da una maggior apertura al digitale deriva un aumento dei rischi. Il primo è nel sistema in sé, in una parola: cybersecurity. È necessario dotarsi di strumentazioni adeguate in grado di identificare il furto di dati o l’intromissioni nei sistemi. Ma anche adeguare l’organizzazione, molte aziende infatti si stanno muovendo verso un’unificazione della struttura di risk management con la security proprio perché il tema cybersecurity è sempre più rilevante e deve essere trattato analogamente ai rischi di mercato, finanziario etc. Altrettanto importante è governare correttamente i dati. Non sfruttare il patrimonio a disposizione o non gestire il processo di produzione può portare ad avere informazioni non corrette, inutili per il business o, peggio, errate e quindi dannose. Essere Data Driven implica che i dati siano governati correttamente, essere sì agili e veloci, ma anche assicurare una gestione corretta per prendere le decisioni di business giuste ed efficaci.

SAS data analytics

I dati possono rispondere a qualsiasi domanda, oppure no?
Dipende da quanto siamo capaci di leggerli. Oltre alla tecnologia serve la conoscenza delle persone, dei data scientist con una formazione statistica informatica adeguata. Chi legge i dati dovrebbe avere anche il compito di stimolare domande nuove, di capire cosa si può fare. La digital transformation spazza come un vento tutti i settori industriali e promette di essere un motore per la competitività, la produttività e l’occupazione. Ma ci sono le competenze necessarie a raccogliere la sfida, nelle aziende? Investire sul miglioramento delle competenze e il rafforzamento dei profili professionali è il punto di partenza per attuare la trasformazione di cui tanto si parla. Partendo dalle persone.

Quanto è importante la formazione?
La tecnologia da sola non basta, la formazione è essenziale. In Italia, SAS è presente in 40 università e Centri di Ricerca, in Master di Data Science e in Corsi di Laurea Magistrale e collaboriamo attivamente con istituti di formazione, clienti e partner proprio per supportare la creazione di strutture e competenze in grado di generare valore e innovazione. Per avvicinare alla cultura del dato anche chi non ha competenze tecniche, SAS ha creato Digital Learning: un percorso formativo online dedicato a imprenditori, manager, studenti e a tutti coloro che desiderano scoprire l’affascinante mondo dei dati. SAS Digital Learning, www.analyticsdigitallearning.com, è nato per semplificare concetti complessi e renderli fruibili anche ai non esperti.

Cosa prevede il programma Digital Learning di SAS?
Partendo da tre macro trend a grande impatto sul business, sono stati costruiti tre percorsi formativi: Data Management, Data Visualization e Advanced Analytics, i tre temi più caldi per chi desideraentrare oggi nel mercato dell’analisi dei dati. La richiesta di competenze in queste aree di specializzazione è sempre crescente e le opportunità di impiego decisamente interessanti. Puntare sullo sviluppo di competenze professionali significa offrire una chance in più al proprio futuro.
SAS Digital Learning è stato pensato in ottica completamente digitale per poter permettere di accedere ai corsi in qualsiasi momento e da qualsiasi dispositivo. Non servono conoscenze tecniche pregresse, i partecipanti vengono infatti accompagnati passo dopo passo in un percorso che li porta ad acquisire le nozioni fondamentali per l’analisi dei dati per imparare a estrarre informazioni di valore dai dati e poter prendere decisioni di business sulla base di informazioni certe.

sas forum

SAS FORUM MILAN 2017 11 APRILE

Analytics drives Everything: l’11 aprile a Milano ospiti, esperti internazionali e keynote speaker si confronteranno sul futuro degli analytics, sulle nuove frontiere dell’Internet of Things e sull’evoluzione dell’intelligenza artificiale. Grazie al contributo di esperti, clienti, partner e Università, verranno esplorate tutte le potenzialità e gli strumenti degli analytics, in molteplici aree applicative. Dalla digitalizzazione dei processi a una customer experience sempre più personalizzata, dalla gestione del dato come elemento di differenziazione alla sua regolamentazione, dall’adeguamento alle normative in ambito rischio alla gestione delle frodi, dall’Internet of Things all’Analytics of Things.

RENDI POSSIBILE L’INIMMAGINABILE A SAS FORUM MILAN
SAS Forum Milan è l’evento gratuito dedicato ai temi più innovativi in ambito advanced analytics, digital transformation e intelligenza artificiale.
4 motivi per partecipare a SAS Forum Milan:
• Scoprire le esperienze di personaggi dello sport, dell’informazione, CTO e innovatori che hanno usato la tecnologia per raggiungere nuovi livelli di ingegno e creatività.
• 8 sessioni parallele e 12 postazioni demo per rimanere aggiornati sulle applicazioni più innovative su customer experience, adeguamento alle normative in ambito rischio, gestione delle frodi, IoT e Analytics of Things. E ancora analytics avanzati, industria 4.0 e digital skill.
• Ascoltare le storie di chi ha già realizzato importanti progetti e guidato l’azienda nella trasformazione digitale.
• Condividere esperienze in un ambiente informale e ricco di stimoli per la propria formazione professionale e personale
ISCRIVITI A SAS FORUM MILAN 2017

SAS Forum Milan

Digitalic X 2017