Chi siamo
Cosa facciamo
approfondimenti
posizioni aperteblog

In questo articolo riporto le mie perplessità in merito alle ricadute del concetto di incertezza nei sistemi a supporto delle decisioni cercando di fare una particolare attenzione agli effetti generati sui decision support systems basati su intelligenza artificiale (AI-DSS). Il percorso che mi ha portato a questo articolo è iniziato dalle riflessioni che ho condiviso nell’articolo nel quale declino il concetto di incertezza oltre il perimetro della qualità dei dati (qui il link).

I sistemi a supporto dei processi decisionali.

Un sistema di supporto alle decisioni (DSS - Decision Support System) è un sistema software in grado di raccogliere, organizzare ed analizzare i dati aziendali al fine di fornire informazioni utili a supportare un qualsiasi processo decisionale oppure supportare attività di gestione e/o pianificazione. In altre parole, un DSS supporta le persone che devono prendere decisioni strategiche in contesti particolarmente complessi nei quali è difficile determinare quale sia la scelta giusta da prendere oppure quale strategia decisionale debba essere utilizzata per raggiungere un determinato obiettivo. La loro affidabilità la si può ricondurre agli algoritmi utilizzati per elaborare i dati ed alla qualità del dataset utilizzato. In sostanza, tali sistemi si basano su un modello semplificato della realtà costruito partendo dai dati in possesso del decisore.

I DSS basati su intelligenza artificiale.

Negli ultimi anni i sistemi software presenti nei DSS sono stati potenziati attraverso l’adozione dell’intelligenza artificiale al fine di rendere sempre più affidabile il modello di rappresentazione della realtà sulla base del quale generare delle elaborazioni. L’AI è in grado, infatti, di costruire autonomamente il modello di rappresentazione dell’universo analizzato (modello AI) e di farlo partendo dal solo dataset progettato dagli analisti.

L’importanza del giusto dataset.

Riassumendo quanto fin qui scritto, una AI sviluppa il modello di rappresentazione dell’universo da analizzare basandosi esclusivamente sul dataset che gli analisti hanno progettato. Essendo, tuttavia, il mondo reale molto più complesso della nostra capacità di sintesi, gli analisti progettano i dataset in modo tale da trovare il giusto compromesso tra un numero di dimensioni sufficientemente ampio da rappresentarne le macrodinamiche del fenomeno da analizzare ma non troppo da rendere complesso il processo di verifica dei risultati prodotti dal modello.

... e qui nascono i miei dubbi

La complessità del mondo reale.

Per quanto correttamente progettato, un dataset resta pur sempre una delle possibili rappresentazioni dell’universo nel quale si manifesta il fenomeno da analizzare. Dal momento che una delle possibili forme dell’incertezza (descritte qui) è proprio legata alla complessità dell’ambiente reale, come possiamo essere certi che il dataset progettato dagli analisti non sia affetto anche solo da incertezza ambientale? Per essere chiari, non sto parlando propriamente di bias ma di qualcosa che temo sia meno tangibile seppur potenzialmente impattante tanto quanto i bias.

Le dimensioni contano.

I miei dubbi sono legati alla scelta delle dimensioni da inserire nel dataset e dall'impossibilità di sapere come ogni dimensione concorrerà a generare il modello AI ed i risultati delle sue elaborazioni. Inoltre, le dimensioni di un modello AI (features) sono spesso considerate indipendenti le une dalle altre laddove, invece, tra le stesse potrebbero innescarsi interazioni o interdipendenze inattese che possono influenzare il risultato delle elaborazioni. Immaginiamo un modello AI a 10 dimensioni delle quali, a nostra insaputa, 3 non sono effettivamente necessarie alla sua rappresentatività ed esaustività. Possiamo pensare che, essendo dimensioni marginali, non impattino sul risultato finale generato dal modello AI. Tuttavia, non solo il modello tiene conto della loro presenza ma le pondera con un criterio che è totalmente nascosto ai nostri occhi a causa del fatto che i sistemi AI operano come delle black box.

Processo di elaborazione di una intelligenza artificiale.

Un sistema AI opera attraverso una rete neurale addestrata a compiere determinati task. Una rete neurale è un processo appartenente ad un’area specifica del machine learning chiamata Deep Learning. Le reti neurali usano una struttura stratificata di neuroni nella quale ogni strato è caratterizzato da una specifica micro-competenza e la somma delle elaborazioni effettuate da ogni singolo strato della rete neurale concorre a formare l’elaborazione finale. La capacità principale di una rete neurale è quella di imparare dai propri errori al fine di risolvere problemi complessi, come riassumere documenti o riconoscere volti, in piena autonomia. Il problema delle elaborazioni effettuate da una rete neurale è legato al fatto che ogni suo strato elabora i dati acquisiti attraverso operazioni non lineari. La somma delle elaborazioni prodotte da ogni strato concorre a generare una elaborazione finale per la quale non è possibile effettuare una verifica di correttezza. In sostanza, il processo di calcolo è talmente complesso che i data scientists non sono in grado di verificarlo. In ragione di questa natura complessa, le AI sono considerate black box.

Il problema della certezza del risultato.

Oggi le AI presentano come loro limite principale non più la potenza di calcolo o la disponibilità dei dati ma la struttura del modello AI che elabora i risultati: quando non comprendiamo adeguatamente la struttura del contesto nel quale si manifesta il fenomeno da analizzare, dobbiamo essere cauti nell’affidare ad una AI l’onere di individuare una soluzione ad un problema perché potrebbe generare una soluzione ottimale in un universo non del tutto conforme alla realtà.

Fonte articolo: Linkedin Article di Vincenzo Gioia

Entra in contatto con noi

"Questi sono tempi di grande incertezza"

Non si contano le volte in cui ho detto e sentito dire questa frase. Di solito la sento dire quando c’è da prendere una decisione e ci si trova in un contesto complesso. Ma cosa è l'incertezza? Come l’incertezza condiziona le nostre decisioni? Quanto è ampio l’impatto dell’incertezza  sui sistemi decisionali basati su intelligenza artificiale?

In questo primo articolo annoto qualche riflessione fatta sul concetto di incertezza, con la speranza che si inneschi un confronto utile a farmi approfondire aspetti che in questo momento non sto prendendo in considerazione.

Definizione di incertezza

Ho notato che non sempre si ha un un punto di vista comune su cosa sia l’incertezza. Per il vocabolario Treccani, l’incertezza e la condizione nella quale ci si trova quando le informazioni oppure i dati relativi ad un fatto sono malsicuri o contraddittori ed offrono una conoscenza insufficiente, o non del tutto fondata. Di solito questa condizione di incertezza è determinata da contesti complessi nei quali non è facile determinare agevolmente il livello di rischio connesso alla decisione che dobbiamo prendere.

Incertezza, rischio e complessità

La concomitanza di rischio e complessità spesso induce a ritenere che le condizioni di incertezza siano determinate dalla complessità di un contesto e/o dalla sua rischiosità. Tuttavia, laddove il rischio può essere valutato attraverso metodi statistici, l'incertezza implica l'incapacità intrinseca di riconoscere le variabili decisionali influenti e le loro relazioni funzionali. In merito alla complessità, non penso che un sistema complesso sia anche incerto dal momento che risulta solo caratterizzato da numerose parti che interagiscono in modo articolato e non necessariamente incerto.

Cosa origina l’incertezza

Preso atto del fatto che l’incertezza non è legata alla complessità di un contesto e/o al rischio legato alle scelte da prendere, ritengo utile espandere la sua natura oltre la definizione che ne abbiamo dato in apertura e che ne riconduce la natura al solo perimetro dell’incompletezza dei dati. L’incertezza può essere ricondotta, a mio parere, anche ad aspetti legati alla comprensione inadeguata del contesto ed alle alternative indifferenziate tra le quali decliniamo le nostre scelte. Per dirla in modo più elegante e vicino ai paper accademici, l’origine dell’incertezza può essere declinata in tre dimensioni: informativa, ambientale e intenzionale.

Incertezza informativa

Deriva da una informazione incompleta ed è la fonte di incertezza più frequente. Possiamo dire che si manifesta quando c’è una mancata acquisizione di dati oppure si è in possesso di un set di dati che risulta incompleto, di scarsa qualità, poco diversificato in termini dimensionali.

Incertezza ambientale

Risulta legata alla naturale complessità del contesto (mondo reale) nel quale è importante sapere distinguere tra relazioni causa-effetto ed altri fenomeni che non sono legati da relazioni causali. Se non si è in grado di comprendere il contesto e le relazioni che lo determinano, si corre il rischio di essere confusi dal significato contraddittorio veicolato da alcuni fenomeni.

Incertezza intenzionale

Deriva dal fatto che, in molti casi, il decisore si basa su criteri variabili anche laddove le alternative di scelta generate sono concrete ed oggettive. In altre parole, gli esseri umani prendono le decisioni finali secondo prospettive o preferenze soggettive anche in presenza di un processo decisionale standard. Questo contesto a forte impronta soggettiva è ulteriormente accentuato da un modello decisionale nel quale le opzioni in campo sono caratterizzate da quella che possiamo definire “alternativa indifferenziata” per la quale le opportunità di scelta non presenta un chiaro fattore distintivo.

Sintesi sul concetto di incertezza

Un processo decisionale affetto da incertezza, in realtà, può essere caratterizzato da tre diverse fonti di incertezza legate alla completezza delle informazioni, al contesto ambientale ed alle intenzioni individuali. L'incertezza ambientale deriva dall'imprevedibilità dell'ambiente, mentre l'incertezza intenzionale ha origine dalle preferenze specifiche degli individui e dalle diverse esigenze. L’incertezza informativa, per quanto la si ritenga gestibile nella misura in cui si è in grado di comprendere e descrivere le relazioni causali tra le variabili e acquisendo informazioni il più complete possibile, risulta difficilmente gestibile a causa della imprevedibilità di alcuni eventi del mondo reale la cui natura è spesso determinata da componenti legate alla incertezza intenzionale.

Fonte articolo: Linkedin Article di Vincenzo Gioia

Entra in contatto con noi
logo-frontiere
LinkedinInstagramYoutubeFacebookTwitter
Privacy policy
Copyright 2024 Frontiere
FRONTIERE Srl
Sede legale in Via Oslavia, 6 - 00195 Roma, RM | C.F. e P.IVA 17464921000
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram