Artwork

Innhold levert av GFT Italy. Alt podcastinnhold, inkludert episoder, grafikk og podcastbeskrivelser, lastes opp og leveres direkte av GFT Italy eller deres podcastplattformpartner. Hvis du tror at noen bruker det opphavsrettsbeskyttede verket ditt uten din tillatelse, kan du følge prosessen skissert her https://no.player.fm/legal.
Player FM - Podcast-app
Gå frakoblet med Player FM -appen!

Dagli algoritmi ClearBox alla Decision Platform. Casi concreti per il settore dei servizi finanziari - Franco Saracco, Banking Sales Director

5:27
 
Del
 

Manage episode 282662839 series 2858856
Innhold levert av GFT Italy. Alt podcastinnhold, inkludert episoder, grafikk og podcastbeskrivelser, lastes opp og leveres direkte av GFT Italy eller deres podcastplattformpartner. Hvis du tror at noen bruker det opphavsrettsbeskyttede verket ditt uten din tillatelse, kan du følge prosessen skissert her https://no.player.fm/legal.

Le tecnologie core AI si stanno focalizzando nell’aiutare le organizzazioni a far scalare le loro iniziative, magari partite come POC. In particolare le priorità, sul fronte dei dati e analytics, riguardano ambiti quali, per esempio, la “synthetic data generation” (tecnologie che permettono di ottenere dati di training per i modelli di Machine Learning (ML) in presenza di dati scarsi o incompleti o difficili da recuperare), il rendere operativi e scalabili i progetti di AI, il poter lavorare su use case complessi, utilizzando il concetto di explainability, ovvero il poter spiegare il perché di una particolare predizione. Far scalare le iniziative di AI è spesso complicato sia da sfide strategiche (es. aspetti sociali sull’utilizzo dei dati, etica, privacy) sia da sfide tattiche, ovvero trovare i dati corretti ed integrarli nei processi di business e nelle applicazioni.

Il concetto di Explainability, su cui in GFT lavoriamo da tempo, è di notevole importanza in ambito AI. Infatti, algoritmi predittivi che rendono possibile l’explainability, quali i cosiddetti “Clear Box”, permettono agli utenti di comprendere molto di più circa il processo decisionale, passando da “cosa” un modello predice a “come” il modello predice. Comprendere le ragioni che stanno dietro alle predizioni è molto importante quando si sta valutando la fiducia in un modello ML – se il business non ha fiducia in un modello non lo userà.

  continue reading

4 episoder

Artwork
iconDel
 
Manage episode 282662839 series 2858856
Innhold levert av GFT Italy. Alt podcastinnhold, inkludert episoder, grafikk og podcastbeskrivelser, lastes opp og leveres direkte av GFT Italy eller deres podcastplattformpartner. Hvis du tror at noen bruker det opphavsrettsbeskyttede verket ditt uten din tillatelse, kan du følge prosessen skissert her https://no.player.fm/legal.

Le tecnologie core AI si stanno focalizzando nell’aiutare le organizzazioni a far scalare le loro iniziative, magari partite come POC. In particolare le priorità, sul fronte dei dati e analytics, riguardano ambiti quali, per esempio, la “synthetic data generation” (tecnologie che permettono di ottenere dati di training per i modelli di Machine Learning (ML) in presenza di dati scarsi o incompleti o difficili da recuperare), il rendere operativi e scalabili i progetti di AI, il poter lavorare su use case complessi, utilizzando il concetto di explainability, ovvero il poter spiegare il perché di una particolare predizione. Far scalare le iniziative di AI è spesso complicato sia da sfide strategiche (es. aspetti sociali sull’utilizzo dei dati, etica, privacy) sia da sfide tattiche, ovvero trovare i dati corretti ed integrarli nei processi di business e nelle applicazioni.

Il concetto di Explainability, su cui in GFT lavoriamo da tempo, è di notevole importanza in ambito AI. Infatti, algoritmi predittivi che rendono possibile l’explainability, quali i cosiddetti “Clear Box”, permettono agli utenti di comprendere molto di più circa il processo decisionale, passando da “cosa” un modello predice a “come” il modello predice. Comprendere le ragioni che stanno dietro alle predizioni è molto importante quando si sta valutando la fiducia in un modello ML – se il business non ha fiducia in un modello non lo userà.

  continue reading

4 episoder

Tous les épisodes

×
 
Loading …

Velkommen til Player FM!

Player FM scanner netter for høykvalitets podcaster som du kan nyte nå. Det er den beste podcastappen og fungerer på Android, iPhone og internett. Registrer deg for å synkronisere abonnement på flere enheter.

 

Hurtigreferanseguide

Copyright 2024 | Sitemap | Personvern | Vilkår for bruk | | opphavsrett