Afleveringen
-
Il potenziale dell’intelligenza artificiale, generativa e non, è qualcosa che non può essere ignorato, ma in una realtà complessa e articolata questo potenziale deve rispondere a due domande fondamentali: il valore che può derivarne per il business e la possibilità di industrializzare ciò che normalmente nasce come sperimentazione.
In queste realtà complesse, inoltre, qualsiasi iniziativa in tal senso non può essere scissa dalla definizione di una Data Strategy, che non solo definisca come i dati possano effettivamente alimentare i modelli di intelligenza artificiale, ma definisca un modello complessivo, a sostegno di un’intelligenza collettiva e che definisca come i dati diventino realmente il fulcro di un’organizzazione, esplorandone gli impatti che tale trasformazione ha su aspetti culturali, organizzativi e tecnologici.
Sono questi i temi che abbiamo avuto modo di discutere con Francesco Giordano, Data Technologies, Analytics & BI Solutions di Generali Asset Management. -
È sempre esistito uno stretto rapporto tra dati e intelligenza artificiale, che spesso viene però collocato solo nella fase di apprendimento dei modelli, ritenendo che questo sia un momento unico, quando invece altro non è che l’inizio di una interazione continua, fatta di un adattamento continuo del modello al mondo sul quale è chiamato a operare.
Ma questo momento, seppur importante, non è il solo nel quale dati e IA devono operare in armonia, perché anche nella fase di esecuzione dei modelli, la possibilità di poter accedere e usare dati arbitrari è un momento fondamentale e necessario per la qualità di quanto prodotto.
Con specifico riferimento all’intelligenza artificiale generativa, l’interazione – o meglio la circolarità – tra LLM e dati diventa un elemento chiave, tanto da aver portato alla definizione della cosiddetta Retrieval Augmented Generation (RAG), dove il patrimonio dati di un’organizzazione viene messo a disposizione dei modelli linguistici per poter comprendere domande e formulare risposte che siano correttamente contestualizzate, perché ciò che l’utente si aspetta non è solo una prosa elegante, ma anche contenuti puntuali relativi a ciò che ha chiesto. -
Zijn er afleveringen die ontbreken?
-
L’oramai consolidata Data Driven Transformation e il nuovo modo in cui questa suggerisce – o forse impone – di consumare i dati, un modo sostanzialmente democratico, fondato sul diritto di ognuno di usare i dati dei quali ha bisogno e di farlo nel rispetto dei doveri, impongono di dare una nuova lettura alla Data Governance. Questa deve necessariamente abbandonare la visione di mero controllo ed evolvere invece verso elemento fondamentale per la generazione di valore.
È questo il tema che abbiamo avuto modo di discutere con Marco Orrù, Domain Director di Alten Italia e Giuseppe Rondinella, Data Analytics Solution Manager di Alten Italia. -
Spesso si parla degli elementi imprescindibili per attuare una Data Driven Transformation, senza però a volte indirizzarli in modo fattivo, per darne concretezza, cosa che al contrario ha fatto il Gruppo Credem, istituendo la Community Data Heroes, cresciuta progressivamente fino a diventare un vero e proprio centro di valore.
Una Community fondata sulla condivisione e sul coinvolgimento di tutte le linee di business e, naturalmente, anche sul corretto supporto tecnologico, in modo da garantire un uso dei dati facile e democratico.
Sono questi i temi che abbiamo avuto modo di discutere con Sara Giannetti, Platform Manager nel Gruppo Data Analytics Infrastructure di Credem, e Claudio Falduto, Referente Data Analytics per Credemvita e Credemassicurazioni. -
I cambiamenti del mercato, degli scenari economici e climatici e, infine, una sempre maggiore consapevolezza del cliente, suggerisce di non poter più procrastinare un cambiamento di rappresentazione, che trasformi il cliente da mero attributo del concetto di rischio - un rischio quasi sempre settoriale e legato alla specificità del prodotto assicurativo - a elemento centrale, attorno al quale si sviluppa la sua “vita assicurativa”, una vita che spesso si dipana su molti anni e che è fatta di scelte e prodotti diversi.
Questa trasformazione, tuttavia, è resa complessa da fattori culturali e organizzativi interni alle compagnie, ma anche dall’articolazione del rapporto con l’assicurato, un rapporto molto spesso mediato da soggetti terzi, come agenti e agenzie.
Sono questi i temi che abbiamo avuto modo di discutere con Paola Scarabotto, Responsabile Customer Intelligence & Data Analysis di Groupama Assicurazioni. -
A una sempre maggiore diffusione dei dati, del loro utilizzo e delle tecniche adottate, in particolare quelle che afferiscono al mondo dell’intelligenza artificiale, stanno riprendendo vitalità tematiche che, in passato, erano forse considerate risolte, o quantomeno ben indagate, o ancora non indagate a fondo.
Qualità, etica e spiegabilità dei dati sono oggi al centro delle discussioni e degli ambiti di ricerca, avendo preso atto che le tecniche proprie dell’intelligenza artificiale impongono un nuovo modo di affrontarle, di comprenderne la portata e di darne corretta comunicazione e consapevolezza.
Sono questi i temi che abbiamo avuto modo di discutere con la Professoressa Cinzia Cappiello, docente nell’ambito dei Sistemi Informativi, e la Professoressa Letizia Tanca -
La prorompente crescita dell’interesse verso l’intelligenza artificiale rischia di mettere in ombra l’importanza che i dati rivestono nel processo di addestramento dei modelli che in tale ambito sono utilizzati.
Spesso si pensa che la sola disponibilità dei dati sia un elemento sufficiente per produrre modelli predittivi che ci aiutino a comprendere un dato fenomeno, dimenticando che la disponibilità è solo il primo passo e che ad esso devono seguire tutti quelli che consentono di valutarne la qualità, l’adeguatezza e la significatività.
Sono questi i temi che abbiamo avuto modo di discutere, nell’ambito del Festival della Statistica 2023, con Margherita de Dottori, Team Leader del Gruppo Scienza del Dato della Direzione Innovazione e Governo ICT di Insiel. -
L’IA Generativa è sicuramente l’argomento del momento, ma una sua lettura limitata all’uso che ne fa ChatGPT rischia di compromettere la corretta comprensione dei vantaggi (e dei limiti) che questa tecnica è in grado di offrire.
Dobbiamo pensare all’IA generativa, non come il fine, ma come un mezzo, che sia di supporto ad altri compiti, come ad esempio quello del Data Management, affiancando e aiutando un Data Steward o un Data Consumer nei loro compiti, così che sia possibile operare più velocemente, più chiaramente e con meno impegno.
Sono questi i temi che abbiamo avuto modo di discutere con il Professor Riccardo Torlone, Professore ordinario del Dipartimento di Ingegneria dell’Università Roma Tre e coordinatore del gruppo di ricerca in Big Data e Database. -
La Data Strategy di un Istituto delle dimensioni e complessità come quelle di INAIL è qualcosa di complesso, che necessita, per avere successo, di un Modello Enterprise-Wide che coinvolga tutta l’organizzazione, di una corretta e condivisa definizione della semantica dei dati, senza la quale i dati sarebbero difficilmente fruibili e, infine, prevedere l’uso di dati Near-Real-Time, così da poter gestire al meglio una realtà così complessa come quella con la quale si confronta INAIL.
Sono questi i temi che abbiamo avuto modo di discutere con Francesco Saverio Colasuonno, Dirigente dell’Ufficio Dati e Analytics di INAIL. -
Se da un lato le organizzazioni, private e pubbliche, hanno compreso l’importanza dei dati e della trasformazione che li pone al centro di tutti i processi decisionali, dall’altro sono ancora spesso legate a un approccio e a un’infrastruttura tecnologica non in grado di gestire in modo efficace un contesto dove i dati sono sempre più eterogenei, veloci e distribuiti. Queste caratteristiche impongono di adeguare l’infrastruttura tecnologica in modo che il potenziale insito nei dati possa realmente e finalmente essere liberato.
È questo il tema che abbiamo discusso con Ersilia Silvestri e Giulia Erica Valente, rispettivamente Data Virtualization Specialist e Team Leader dell’area dati di Miriade. -
A una intelligenza artificiale sempre più pervasiva, che suscita interesse per le sue enormi potenzialità, si sta affiancando una riflessione, altrettanto interessante, sull’etica degli algoritmi e delle decisioni che questi sono in grado di suggerire o prendere sulla base dei dati con i quali sono stati addestrati.
Una riflessione, quella sull’etica, complessa perché rimanda inevitabilmente a quella degli uomini, un’etica che non oggettiva, universale, ma inevitabilmente connessa al contesto nel quale si sviluppa, cosa che porta a chiederci se, anche nel caso dell’intelligenza artificiale, si debba prendere atto di tali limiti e dei confini oltre ai quali è impossibile spingerci.
Sono questi i temi che abbiamo avuto modo di discutere con il Professor Alfio Ferrara, Professore di Informatica presso l’Università Statale di Milano. -
La Data Driven Transformation si fonda, tra le altre cose, anche su una pervasiva diffusione dei dati all’interno di un’organizzazione, diffusione necessaria affinché ciascuno possa usare i dati dei quali ha bisogno, per adempiere a ciò che gli è imposto dal ruolo e dalle relative responsabilità.
Un uso pervasivo dei dati, tuttavia, deve essere accompagnato da un modello di riferimento che, appunto come in un regime democratico, definisca diritti e doveri, per far sì che, per i primi, ne sia facile l’esercizio e, per i secondi, ne sia garantita la loro chiarezza e gestione, così che ciascuno possa usare solo i dati nel rispetto di ciò che la normativa e le regole interne definiscono. -
Benvenuti nella seconda stagione di Denodo DataPops!
I dati saranno sempre l’elemento centrale del pocast, ma con una lettura ancora più ampia. Ci saranno nuovi ospiti, con un maggiore coinvolgimento del mondo accademico, che affiancherà quello dei clienti, delle aziende di consulenza e di System Integration.
Un elemento cruciale sarà il legame indissolubile tra i dati e l'intelligenza artificiale, in particolare l'IA generativa. Esploreremo come questo legame rappresenti una risorsa sempre più essenziale, affrontando questioni legate all’etica, alla comunicazione, alla Data Explainability e alla sostenibilità.
Vuoi conoscere diversi punti di vista ed esperienze per comprendere appieno le potenzialità dei dati? Ascolta oggi il nostro podcast! -
Istat ha intrapreso alcuni anni fa un percorso di modernizzazione, sia per essere internamente più efficiente, che per confrontarsi con un contesto mutevole, nel quale nuovi dati sono costantemente disponibili, da fonti nuove rispetto al passato, e dove il loro uso per produrre un valore per il sistema paese è un obiettivo sempre più importante e sfidante.
Altrettanto importante è il ruolo che Istat ha assunto nel processo di interoperabilità dei dati nella Pubblica Amministrazione, in particolare nella definizione dei necessari modelli semantici, elemento fondamentale per una reale e fattibile integrazione dei dati.
Sono questi i temi che abbiamo avuto modo di discutere con Massimo Fedeli, Direttore, in Istat, del dipartimento per lo sviluppo delle tecnologie e delle metodologie a supporto della produzione e diffusione statistica. -
La Data Driven Transformation sembra essere per le aziende un percorso inevitabile per rimanere competitivi e cogliere le opportunità del mercato. Come spesso accade, però, a una dichiarazione d’intenti corrispondo interpretazioni differenti, sfide e difficoltà, che investono tutti gli ambiti, come quello culturale, organizzativo e tecnologico.
Cosa sta accadendo in Italia? Come si stanno comportando le aziende, nelle loro naturali differenze di mercato, di dimensione e di volontà di innovazione?
Sono questi i temi che abbiamo avuto modo di discutere con il Professor Alberto Pezzi, Docente di Economia Aziendale presso l’Università Roma Tre. -
Benvenuti nel sesto episodio della serie di podcast in italiano di Denodo.
Alla naturale curiosità intorno all’Intelligenza Artificiale, si sta progressivamente e rapidamente affiancando nelle aziende la consapevolezza del valore potenziale del suo utilizzo in specifici settori di mercato e in relazione a ben definiti contesti funzionali.
Parallelamente, emerge la stessa consapevolezza sull’importanza dei dati, della loro qualità, della possibilità di governance e del consentire agli utilizzatori la semplicità di consumo, elemento alla base della democratizzazione dei dati, necessaria per poter realizzare la Data Driven Transformation. -
Benvenuti nel quinto episodio della serie di podcast in italiano di Denodo.
Se la gestione dei dati e la loro valorizzazione sono compiti ardui, ancor più lo sono nel settore pubblico, dove i dati non solo sono distribuiti su tecnologie diverse, ma sono anche soggetti a responsabilità distribuite tra le diverse amministrazioni e soggetti a una normativa estremamente puntuale.
Queste peculiarità, tuttavia, non possono essere un freno alla valorizzazione dei dati, al loro ruolo nella creazione di nuovi servizi per la comunità e al loro contributo nel processo di digitalizzazione dell’Amministrazione Pubblica.
Sono questi i temi che abbiamo avuto modo di discutere con Diego Antonini, Amministratore Unico di Insiel SpA, società In House della Regione Friuli Venezia Giulia. -
Benvenuti nel quarto episodio della serie di podcast in italiano di Denodo.
Data Fabric e Data Mesh, due paradigmi dei quali si parla molto e non di rado come in alternativa, ma che invece, indirizzando aspetti diversi, possono trarre beneficio l’uno dall’altro.
Il Data Fabric diventa quindi abilitatore tecnico-funzionale del Data Mesh, e ancora maggiori vantaggi si possono ottenere quando si utilizza un Logical Data Fabric, che garantisce quell’agilità che rappresenta un elemento irrinunciabile in un mondo così fluido e mutevole. -
Benvenuti nel terzo episodio della serie di podcast in italiano di Denodo.
L’intelligenza artificiale è affamata di dati, probabilmente più di ogni altra tecnica di analisi, dati che sono utilizzati in differenti momenti, dall’addestramento dei modelli, alla loro messa in produzione, fino al tuning periodico che deve necessariamente essere fatto.
La disponibilità di una Data Platform, che consenta agilmente di usare tutti i dati necessari, rappresenta quindi un innegabile acceleratore. Consentendo anche di gestire tutti quegli aspetti di Governance necessari per usare i dati coerentemente con gli aspetti normativi e di essere un punto di passaggio anche per una loro analisi preventiva, volta ad esempio a verificare la loro qualità, completezza e l’eventuale presenza di Bias. -
Benvenuti nel secondo episodio della serie di podcast in italiano di Denodo.
Il mondo è in continua accelerazione e tutto si muove così velocemente che osservare, attraverso i dati, ciò che accade è sempre più difficile, con il rischio di perdere dettagli preziosi.
Abbiamo allora bisogno di un modo nuovo e agile di gestire i dati, che sia in grado di stare al passo di questa velocità, fornendo i dati a chi ne ha bisogno e nel momento in cui tale bisogno si manifesta.
I questo episodio, Andrea Zinno, Data Evangelist di Denodo, introdurrà i principi fondanti del Logical Data Management, scelta ideale per una gestione dei dati moderna, governabile e democratica. - Laat meer zien