Chi siamo
Cosa facciamo
approfondimenti
posizioni aperteblog

Un recente video su TikTok ha catturato la mia attenzione: il celebre cantante Robbie Williams, seduto tranquillamente su una panchina, osservava indisturbato i passanti. Questa scena, apparentemente banale, mi ha riportato alla mente un esperimento sociale condotto nel 2007, che offre preziose riflessioni sul management moderno.

L'esperimento "Pearls Before Breakfast"

L'esperimento "Pearls Before Breakfast", ideato dal giornalista Gene Weingarten del Washington Post, pose una domanda provocatoria: in un contesto ordinario, le persone riconoscerebbero il talento? Per rispondere, Weingarten orchestrò un'audace dimostrazione con il rinomato violinista Joshua Bell.

Il 12 gennaio 2007, alle 7:51 del mattino, Bell si posizionò all'ingresso della stazione metropolitana L'Enfant Plaza di Washington D.C. Vestito in modo casual, con jeans e cappellino da baseball, il celebre musicista iniziò a suonare brani classici del suo repertorio più complesso su uno Stradivari del 1713, del valore di 3,5 milioni di dollari. La location non era casuale: L'Enfant Plaza è frequentata principalmente da manager di medio livello diretti verso il cuore della capitale federale.

Il risultato fu sconcertante: dei 1.097 passanti, solo sette si fermarono per più di un minuto. La maggior parte passò oltre senza un'occhiata, frettolosa e distratta. Bell raccolse appena $32,17, di cui $20 da un'unica persona che lo riconobbe. Un esito sorprendente, considerando che la sera precedente lo stesso Bell aveva suonato in un teatro di Boston con biglietti da $100.

5 lezioni fondamentali

Ritengo questo esperimento illuminante su aspetti del management moderno che reputo cruciali, offrendo cinque lezioni fondamentali che ho fatto mie e che condivido con chi mi legge:

  1. Influenza del contesto: come manager, dobbiamo essere consapevoli di come il contesto influenzi la nostra percezione delle competenze altrui. L'ambiente non dovrebbe oscurare il talento.
  2. Superare pregiudizi e aspettative: è essenziale non legare il nostro giudizio al luogo in cui si manifestano le competenze. Il talento può emergere ovunque, anche nei contesti più inaspettati.
  3. Attenzione oltre la fretta: in un mondo frenetico, dobbiamo resistere alla tentazione di concentrarci solo sugli obiettivi immediati. L'apertura mentale può rivelare opportunità e talenti nascosti.
  4. Valore intrinseco vs. percezione: il valore di una persona o di una performance non dovrebbe dipendere dal contesto, ma dalla sua qualità intrinseca. Come manager, dobbiamo affinare la capacità di riconoscere il valore autentico.
  5. Ripensare l'analisi costi-benefici nelle relazioni: spesso valutiamo rapidamente se interagire con gli altri basandoci su criteri superficiali. È cruciale sviluppare un modello di valutazione più profondo e umano.

L'esperimento di Bell ci ricorda che il vero talento manageriale risiede nella capacità di riconoscere l'eccellenza, indipendentemente dal contesto. In un'epoca in cui i manager rischiano di diventare meri esecutori, queste lezioni mi invitano a riscoprire il ruolo di guida e mentore.

La competenza manageriale

La competenza manageriale è la sintesi di formazione ed esperienza, e il suo scopo ultimo è far crescere le persone. Riconoscere la "musica" nel rumore quotidiano, apprezzare il talento nelle sue forme più inaspettate, e coltivare un ambiente che valorizzi l'eccellenza sono competenze cruciali per il manager moderno.

Mentre riflettiamo su queste lezioni, ricordiamoci che la vera arte del management sta nel creare un'armonia dalle diverse note del talento umano, trasformando il luogo di lavoro in una sinfonia di crescita e innovazione nella quale il genio collettivo possa sempre manifestarsi indisturbato.

PS: Grazie all'articolo con il quale Weingarten descrisse questo esperimento, gli fu attribuito il Premio Pulitzer nel 2008.

Fonte articolo: Linkedin Article di Vincenzo Gioia

Entra in contatto con noi

La martellata del meccanico e l’intelligenza artificiale generativa

Le Intelligenze Artificiali (IA) mi hanno da sempre attratto per il fascino di cui erano ammantate grazie ai film di Hollywood. 2001 Odissea nello spazio, Ex Machina sono film che vedo e rivedo scoprendo sempre nuovi spunti di riflessione. Negli ultimi anni, alla narrativa cinematografica si è sommato il contributo professionale del quale ho beneficiato grazie ai colleghi con i quali ho avuto la fortuna di lavorare e con il quale oggi ho una visione strutturata (almeno penso che lo sia) delle capacità tecnologiche e delle ricadute nel quotidiano professionale e personale delle persone.

Gli spunti di riflessione che si sono susseguiti nel tempo sono stati appuntati nei miei articoli con l’intento di generare un confronto che non si fermi allo stato dell’arte della ricerca che richiede anni per comprendere la natura di quanto sta accadendo attraverso l’uso delle IA.

Per personale comodità, riepilogo il percorso tracciato dagli articoli che ho scritto.

Le intelligenze aliene

Qualche tempo fa, in questo articolo, ho appuntato le mie riflessioni sul concetto di intelligenza. L’ho fatto perché penso che l’intelligenza sia una creatura sconosciuta malgrado se ne parli tutti i giorni. Tra le intelligenze che popolano il nostro mondo e delle quali parlo nell’articolo ci sono anche le neonate intelligenze artificiali (IA) che stanno diventando uno strumento sempre più diffuso tanto in ambito professionale quanto in ambito consumer per le notevoli capacità generative e la semplicità con la quale è possibile interagire con loro.

Bias e allucinazioni delle IA

La storia ci ha insegnato che, come ogni grande strumento, anche l’intelligenza artificiale porta con sé nuovi ed inattesi problemi che, come scritto in questo articolo, nel caso delle IA, i problemi maggiori sono legati alla presenza di bias che reputo inevitabili ed esistenti anche laddove se ne esclude la presenza. L’inaspettata natura dei problemi delle IA, come esposto in questo articolo scritto a quattro mani con l’amico Remco Foppen, si sta manifestando anche sotto forma di allucinazioni che, lungi dall’essere esclusiva prerogativa umana, è diventata il cruccio di chi opera con i sistemi LLM di ultima generazione perché, come accade con gli uomini, anche le allucinazioni artificiali sono sempre più coerenti con la realtà e, quindi, difficili da identificare.

Ricadute delle IA nei processi creativi

Malgrado i limiti che mostrano le IA, trovo questi sistemi indiscutibilmente utili anche laddove si intravedono ampie zone grigie legate al fatto che sono ancora poco chiari limiti, opportunità, rischi e benefici. Qualunque sia l’uso che se ne fa, le IA stanno già modificando il nostro modo di essere e di pensare tanto che, come scritto in questo articolo, non escludo il manifestarsi del loro effetto anche sui meccanismi che governano i processi creativi. Il blocco dello scrittore è facilmente aggirabile se si ricorre ad una IA e, a quanti lamentano l’assenza di originalità, rispondo dicendo che, come in ogni creazione, l’ispirazione non è mai l’opera finale.

Non usate GPT perché i clienti se ne accorgono

Questo articolo nasce da una battuta fatta da un collega al termine di una riunione di progetto che, con tono perentorio, disse:

“Mi raccomando, non usate ChatGPT per scrivere i documenti di progetto perché esistono dei sistemi in grado di rivelarlo e ci facciamo una pessima figura con il cliente”.

Questa battuta mi fece immediatamente tornare la mente ai tempi dell’esame di matematica generale il cui Prof titolare di cattedra ci vietava l’uso delle calcolatrici. Da giovane universitario mi chiesi cosa fosse più importante tra il ragionamento che porta al calcolo ed il calcolo stesso. Oggi come allora mi chiedo cosa sia più importante tra il meccanismo che porta all'elaborato e l'elaborato.

L’innovazione ed i mali dell’umanità

L’uso di strumenti di supporto alla produttività è da sempre visto con diffidenza. Per quanto bizzarro, le critiche all’innovazione prescindono dalla natura dell’innovazione tanto che c'è stato un tempo in cui ad essere criticata fu la persino la scrittura che Platone, nel Fedro, definì causa di deterioramento della memoria. Non è stato riservato trattamento migliore alla calcolatrice il cui uso era osteggiato perché riduce la capacità di eseguire a mente calcoli, anche molto complessi. Oggi nessuno di noi potrebbe fare a meno della scrittura e l’uso della calcolatrice non solo è stato accettato, ma incentivato dal ministero della pubblica istruzione che già da decenni ne consente l’uso nelle prove di matematica del liceo scientifico e tecnologico.

L’inarrestabile incedere dei cambiamenti

Il cambiamento che si innesca al diffondersi di ogni nuova tecnologia è inarrestabile. Lo è stato per la scrittura, lo è  stato per la fotografia e lo è stato per la calcolatrice a scapito del regolo calcolatore. Per quanto ci si lamenti, il cambiamento diventerà quotidianità. Questo ciclo evolutivo ci impone riflessioni e su ciò che siamo, su come ci percepiamo e su cosa desideriamo essere.

L’importanza dei giusti perché

Le IA hanno prodotto molti impatti sulla natura umana ed uno di questi lo desidero annotare in questo articolo. Parlo di un aspetto che non avevo ancora preso in considerazione malgrado sia legato alla capacità di elaborare un concetto, un’idea. Non esito a considerare questo aspetto il carburante di ogni analisi. Sto parlando della capacità, per nulla innata, di porre domande strutturate in modo tale da indirizzare l’interlocutore verso una risposta sintetica e chiara.

La forza delle domande ben formulate

Una domanda ben formulata è un potente strumento grazie al quale si può guidare un intero processo di analisi permettendo di concentrare l’attenzione su ciò che è veramente importante: definire l’obiettivo dell’analisi e determinare quali dati sono necessari. Una domanda ben posta può aiutare ad identificare eventuali limitazioni o sfide che potrebbero sorgere durante l’analisi, risolvere problemi complessi e costruire relazioni. Una domanda mal costruita determina una pericolosa trappola i cui effetti possono allontanarci dalla nostra esplorazione facendoci finire col farci confermare ciò che già sappiamo.

La relazione tra i giusti perché e l’elaborato di una IA

La relazione esistente tra la capacità di porsi domande ben strutturate e l’uso di una IA è rappresentata dal fatto che le IA operano solo se viene somministrata loro una richiesta/domanda e la qualità dell’elaborato prodotto da una IA è direttamente legata alla qualità della domanda formulata. In modo analogo a quanto accade con gli uomini, una domanda formulata in modo sbagliato può risultare fuorviante anche per un sistema IA le cui fragilità possono emergere attraverso la formulazione di domande che si avvalgono di specifici costrutti logici. Una domanda strutturata in modo corretto consente di attivare una IA su compiti per i quali non è stata direttamente addestrata ad operare ma per i quali è in grado di formulare risposte attendibili perché basate su dati verificati (almeno si spera che lo siano).

Prompt engineering

Il prompt engineering è il campo di studi nel quale si cerca di individuare la tecnica migliore per scegliere i formati, le frasi, le parole e i simboli più appropriati nella formulazione delle domande che guidano una IA generativa a produrre risultati pertinenti e di alta qualità. La relazione che lega la qualità della domanda alla pertinenza della risposta è centrale in ogni ambito degli studi filosofici così come risulta esserlo per una corretta interazione con una IA.

Il bilancio della curiosità

L'importanza della prompt engineering mi induce a pensare che, anche in tempi nei quali la conoscenza può essere raggiunta attraverso intelligenze sovrumane (così sono definite le intelligenze posteriori alla “mossa 37”), il valore della conoscenza resta legato al disavanzo fisso tra domande e risposte. Avere più domande che risposte significa avere la chiave della conoscenza dal momento che l’operatività efficace delle IA, così come accade per quella del cervello umano, è strettamente legata alla capacità di porre le domande giuste.

La martellata del meccanico e l'originalità dell’elaborato

Proseguendo il mio ragionamento e focalizzandomi sulla questione relativa alla originalità dell'elaborato, mi chiedo in che modo cambierebbe la tua opinione sulla qualità di questo testo se ti dicessi che è stato generato con il supporto di una IA. Mi spiego meglio ricorrendo al noto aneddoto della martellata del meccanico. Un tizio, dopo avere interpellato numerosi meccanici e speso molti soldi, si reca da un meccanico al quale chiede di eliminare il fastidioso cigolio che affligge il motore della sua auto. L'anziano meccanico, dopo avere ascoltato per qualche secondo il disgraziato suono, prende un vecchio martello e, con colpo deciso, risolve il problema. Per la martellata chiede 500 euro. Al cliente che non intendeva pagare quella cifra per un colpo di martello, il meccanico rispose chiedendo se il cliente sarebbe stato capace di fare lo stesso. Il resto del ragionamento lo lascio a te che mi leggi. In pratica, semmai avessi usato una IA per generare questo testo, il suo ruolo strumentale nel percorso creativo/produttivo non sarebbe dissimile da quello assunto dal martello nelle mani dell’anziano meccanico. In ragione di ciò, piuttosto che chiedermi se per l’esecuzione di una attività è stata o meno usata una IA, preferisco chiedermi quale grado di padronanza dello strumento si è avuto nel suo impiego.

L’IA, la scrittura e la calcolatrice

Penso che l’uso delle IA sia al pari dell’uso della scrittura, della calcolatrice e del martello del meccanico. Il loro valore funzionale è legato alla capacità di farne buon uso. Così come nessuno mi chiederebbe se ho usato o meno la calcolatrice nello svolgimento dei miei test di radiotecnica, spero che un giorno non mi si chiederà più se ho usato o meno una IA nel processo di stesura dei miei elaborati perché considero queste critiche il frutto di banali frustrazioni neo-feudali che albergano di nelle pleistoceniche menti di personaggi che vogliono sapere che si è “faticato” invece di concentrarsi sulla qualità del lavoro prodotto.

La smania dell’originalità

Agli gli irriducibili dell’originalità dell’elaborato, i capi ultrà della “è frutto del mio sudore”, le vergini scandalizzate del “qui non copia nessuno” dichiaro che ho lasciato ad altri e senza rimpianto la loro sponda culturale a favore del ruolo di quello che ti dice che Babbo Natale non esiste. Signore e Signori, la gran parte dei professionisti che ho conosciuto negli ultimi 20 anni in giro per le decine di aziende nelle quali ho lavorato produce documenti attingendo “copiosamente” a quanto già prodotto per e/o da altri. Fatevene una ragione, il mondo si regge su 3 semplici tasti della tastiera CTRL, C e V.

Conclusioni

Chiarita la mia posizione in merito all’uso delle IA ed al loro ruolo funzionale, resta da capire come queste impattano sulla capacità di formulare domande adeguate alle aspettative che si nutrono sull’elaborato atteso. Le potenzialità offerte dalle IA generative porteranno le persone a trovare il modo per impiegarle in contesti sempre più ampi della vita quotidiana e lavorativa. Ciò indurrà a sviluppare una capacità sempre maggiore di formulare domande strutturate la cui natura non può che derivare da uno sforzo di analisi ed astrazione. In sostanza, per quanto vi possa dare fastidio, in futuro nessuno scriverà pensando di farlo senza il supporto di una IA perché, oltre alla condivisione di quanto si pensa, un testo ha lo scopo di divulgare un contenuto a fini culturali.

Fonte articolo: Linkedin Article di Vincenzo Gioia

Entra in contatto con noi

Introduzione

OpenAI continua a innovare nel campo dell'intelligenza artificiale, e la versione ChatGPT-4o rappresenta un significativo passo avanti rispetto ai suoi predecessori. Questo modello introduce una serie di miglioramenti e nuove funzionalità che ampliano le capacità dell'IA, rendendola più potente, versatile e accessibile.

Multimodalità

Una delle novità più rilevanti di ChatGPT-4o è la capacità multimodale. Questo modello è in grado di elaborare simultaneamente diversi tipi di input, inclusi testo, immagini, audio e video. Questa funzionalità consente interazioni più naturali e complete con l'IA, offrendo risposte più contestualizzate e pertinenti.

Miglioramento delle Prestazioni

GPT-4o è stato progettato per essere più veloce e efficiente. Rispetto ai modelli precedenti, è due volte più veloce, con tempi di risposta ridotti e una maggiore capacità di gestione delle richieste simultanee. Inoltre, il modello è più efficiente dal punto di vista energetico, riducendo il consumo di risorse.

Velocità e Efficienza

Tempo di risposta: risponde in meno di 300 millisecondi, garantendo interazioni rapide e fluide.

Gestione delle richieste: capacità di gestire fino a 10 milioni di token al minuto, migliorando la velocità di elaborazione delle informazioni.

Questi miglioramenti in velocità ed efficienza fanno di GPT-4o un'opzione eccellente per applicazioni che richiedono risposte rapide e precise, come i servizi di assistenza clienti e gli assistenti virtuali.

Accessibilità gratuita

Una delle innovazioni più importanti è l'accessibilità gratuita di GPT-4o. Questo modello offre gratuitamente funzionalità che in precedenza erano riservate agli utenti a pagamento. Questa mossa strategica di OpenAI mira a democratizzare l'accesso all'IA, permettendo a un pubblico più ampio di sfruttare le potenzialità del modello.

Funzioni accessibili gratuitamente

Analisi dei file: gli utenti possono caricare e analizzare file di testo senza costi aggiuntivi.

Utilizzo degli sssistenti GPTs: funzionalità avanzate come la gestione dei compiti e l'automazione dei flussi di lavoro sono ora disponibili per tutti.

L'accessibilità gratuita di GPT-4o non solo amplia la base di utenti, ma favorisce anche l'innovazione e la creatività, poiché più persone possono sperimentare con le capacità avanzate dell'IA.

Ampliamento della Finestra di Contesto

GPT-4o introduce una finestra di contesto ampliata a 128K. Questo permette al modello di mantenere la coerenza e la pertinenza delle risposte anche in conversazioni lunghe e complesse. L'aumento della finestra di contesto migliora significativamente la capacità del modello di comprendere e rispondere alle richieste degli utenti.

Vantaggi della Finestra di Contesto Ampliata

Conversazioni Lunghe: Maggiore coerenza nelle interazioni prolungate.

Analisi Dettagliate: Capacità di elaborare e comprendere grandi quantità di informazioni contestuali.

La finestra di contesto ampliata consente a GPT-4o di fornire risposte più accurate e pertinenti, migliorando l'esperienza complessiva dell'utente.

Integrazione del Web e App Desktop

GPT-4o integra l'accesso al Web, permettendo al modello di ottenere informazioni in tempo reale per rispondere alle domande degli utenti. Inoltre, OpenAI ha rilasciato un'app desktop per Mac (e prossimamente per Windows), che facilita l'interazione con l'IA tramite la clipboard del PC.

Utilizzo dell'App Desktop

Interazione semplificata: gli utenti possono copiare testo, immagini o altri dati nella clipboard e ricevere risposte immediate.

Accesso in tempo reale: possibilità di ottenere informazioni aggiornate grazie all'integrazione del Web.

L'app desktop rende GPT-4o un compagno di lavoro versatile, integrandosi facilmente nel flusso di lavoro quotidiano degli utenti.

Capacità di Percepire le Emozioni

GPT-4o introduce anche la capacità di percepire e reagire alle emozioni umane. Durante le demo, il modello ha mostrato la capacità di rilevare lo stato emotivo dell'utente, come la felicità o l'ansia, e rispondere di conseguenza. Ad esempio, se l'utente mostra segni di stress, GPT-4o può fornire consigli per calmarsi.

Esempi di Interazione Emotiva

Supporto emotivo: il modello può offrire consigli per la gestione dello stress o suggerimenti per migliorare il benessere emotivo.

Personalizzazione delle risposte: adatta il tono e lo stile delle risposte in base all'emozione percepita, migliorando l'esperienza dell'utente.

Questa capacità di percepire le emozioni rende GPT-4o un assistente virtuale più empatico e umano, migliorando significativamente l'interazione con gli utenti.

Implicazioni per i Programmatori

Le API di GPT-4o sono disponibili a un costo ridotto rispetto a GPT-4, rendendo più accessibile l'uso del modello per applicazioni di vario tipo. L'aumento del dizionario dei token riduce i costi di elaborazione e le dimensioni delle finestre di contesto, migliorando l'efficienza complessiva.

Esempi di Applicazioni Programmabili

Assistenti virtuali: creazione di assistenti capaci di gestire conversazioni complesse e offrire supporto su una vasta gamma di argomenti.

Analisi dei dati: capacità di analizzare dati testuali, visivi e audio, fornendo insight più completi e accurati.

Contenuti generativi: sfruttare le capacità avanzate di GPT-4o per generare contenuti creativi, come articoli, storie e video, basati su input variabili.

L'accessibilità delle API di GPT-4o consente ai programmatori di esplorare nuove possibilità creative e sviluppare applicazioni innovative che sfruttano appieno le capacità del modello.

Conclusione

GPT-4o rappresenta un passo avanti significativo per OpenAI, migliorando non solo la complessità del modello ma anche l'usabilità e l'accessibilità delle tecnologie AI. Con l'implementazione di funzionalità avanzate e l'accesso gratuito, GPT-4o promette di ampliare l'uso dell'IA oltre le semplici chat. La combinazione di velocità, efficienza e capacità multimodali rende GPT-4o un potente strumento per una vasta gamma di applicazioni, dall'assistenza sanitaria all'intrattenimento, dall'educazione alla finanza.

In un panorama tecnologico in rapida evoluzione, l'accessibilità di GPT-4o consente a un numero maggiore di utenti di sperimentare e integrare l'IA nelle loro attività quotidiane. Questo modello non solo migliora le prestazioni rispetto ai suoi predecessori, ma offre anche nuove opportunità per l'innovazione e la creatività. Con GPT-4o, OpenAI continua a spingere i confini dell'intelligenza artificiale, dimostrando il potenziale di questa tecnologia di trasformare il nostro modo di vivere e lavorare.

Entra in contatto con noi

Introduzione

L'intelligenza artificiale (IA) ha trasformato profondamente il modo in cui interagiamo con la tecnologia. Due dei modelli di IA più avanzati e noti oggi sono ChatGPT di OpenAI e Gemini di Google. Entrambi rappresentano il culmine di anni di ricerca e sviluppo nel campo dell'elaborazione del linguaggio naturale (NLP), ma presentano differenze significative in termini di architettura, funzionalità e applicazioni. Questo articolo esplorerà queste differenze, offrendo una panoramica approfondita delle caratteristiche di ChatGPT e Gemini.

L'Importanza dell'IA nel contesto tecnologico attuale

L'intelligenza artificiale è diventata una componente fondamentale della tecnologia moderna, influenzando settori come l'automazione, la sanità, la finanza e l'educazione. Le aziende tecnologiche di punta, tra cui Google e OpenAI, stanno guidando la rivoluzione dell'IA, sviluppando modelli avanzati che promettono di ridefinire le capacità tecnologiche e migliorare la vita quotidiana delle persone. La corsa per ottenere una posizione dominante nel mercato dell'IA ha portato alla creazione di strumenti potenti come ChatGPT e Gemini.

ChatGPT: una panoramica

ChatGPT è un modello di linguaggio avanzato sviluppato da OpenAI, basato sull'architettura GPT-3 e il successivo GPT-4. È progettato per comprendere e generare testo umano in modo coerente e pertinente. Utilizza miliardi di parametri per apprendere da una vasta gamma di testi e rispondere alle domande in modo naturale.

Storia e sviluppo di ChatGPT

OpenAI ha introdotto la serie GPT (Generative Pre-trained Transformer) con GPT-3, che è diventato rapidamente famoso per la sua capacità di generare testo estremamente realistico. GPT-4 ha ulteriormente migliorato queste capacità, aumentando il numero di parametri e affinando gli algoritmi di machine learning utilizzati. ChatGPT è stato creato per applicazioni pratiche come assistenti virtuali, chatbot per il customer service e strumenti di scrittura automatizzata.

Funzionalità e capacità di ChatGPT

ChatGPT è noto per la sua capacità di mantenere conversazioni naturali su una vasta gamma di argomenti. Può generare testo, rispondere a domande, scrivere saggi, e persino creare codice. La sua versatilità lo rende uno strumento potente per molte applicazioni, dalla scrittura creativa all'assistenza tecnica.

Gemini: una panoramica

Gemini è il chatbot di Google, basato sul modello linguistico PaLM 2. Questo modello rappresenta un'evoluzione significativa rispetto ai precedenti tentativi di Google nel campo dell'IA, come Bard. Presentato durante la conferenza I/O 2023 e successivamente rinominato Gemini nel febbraio 2024, questo strumento è progettato per fornire risposte precise e contestualizzate agli utenti.

Storia e sviluppo di Gemini

Google ha sviluppato Gemini per competere direttamente con i modelli di IA più avanzati come ChatGPT. Basato su PaLM 2, Gemini utilizza tecniche avanzate di machine learning per leggere e comprendere miliardi di parole, migliorando costantemente attraverso l'interazione con gli utenti. La rinominazione e il miglioramento del modello riflettono l'impegno di Google nel rimanere all'avanguardia dell'innovazione tecnologica.

Funzionalità e capacità di Gemini

Gemini è disponibile in tre varianti: Nano 1.0, Pro 1.0 e Ultra 1.0, ciascuna progettata per specifiche esigenze e applicazioni. Il modello Ultra 1.0, in particolare, è estremamente potente con 540 miliardi di parametri, superando il modello GPT-4 di ChatGPT. Gemini può gestire input multimodali, tra cui testo, immagini, audio e video, rendendolo versatile e capace di affrontare compiti complessi.

Confronto tra ChatGPT e Gemini

Architettura e tecnologia

ChatGPT: basato sull'architettura GPT-4, utilizza miliardi di parametri per generare testo naturale. È altamente versatile e può essere adattato a diverse applicazioni.

Gemini: basato su PaLM 2, offre tre varianti per diverse esigenze. Il modello Ultra 1.0 con 540 miliardi di parametri è progettato per compiti complessi e supporta input multimodali.

Capacità di Apprendimento e Comprensione

ChatGPT: eccelle nella generazione di testo coerente e pertinente, mantenendo conversazioni su una vasta gamma di argomenti. È particolarmente utile per scrittura creativa e assistenza tecnica.

Gemini: offre una comprensione più profonda del contesto grazie alla sua capacità di apprendere da miliardi di parole. La sua capacità di gestire input multimodali lo rende ideale per applicazioni complesse e multifunzionali.

Applicazioni Pratiche

ChatGPT: utilizzato principalmente in assistenti virtuali, chatbot per customer service, strumenti di scrittura automatizzata e generazione di codice.

Gemini: Utilizzato in una vasta gamma di settori, dalla sanità alla finanza, dall'educazione all'automazione industriale. Le sue varianti Pro 1.0 e Ultra 1.0 lo rendono adatto sia per applicazioni quotidiane che per compiti altamente complessi.

Accessibilità e Costi

ChatGPT: disponibile attraverso diverse piattaforme e può essere integrato in varie applicazioni aziendali. I costi variano in base all'utilizzo e all'integrazione.

Gemini: disponibile gratuitamente nella versione Pro 1.0, mentre l'accesso a Gemini Advanced (Ultra 1.0) richiede un abbonamento al piano Google One AI Premium. Questo include vantaggi aggiuntivi come 2TB di spazio su Google Drive.

Potenza e Prestazioni

ChatGPT: con 175 miliardi di parametri, GPT-4 è estremamente potente ma leggermente inferiore al modello Ultra 1.0 di Gemini in termini di capacità computazionale.

Gemini: con 540 miliardi di parametri, Ultra 1.0 offre una potenza senza precedenti, ideale per compiti altamente complessi e per gestire grandi quantità di dati.

Conclusione

Sia ChatGPT di OpenAI che Gemini di Google rappresentano il meglio dell'innovazione nell'intelligenza artificiale. Mentre ChatGPT si distingue per la sua versatilità e la capacità di mantenere conversazioni naturali su una vasta gamma di argomenti, Gemini si fa notare per la sua potenza computazionale e la capacità di gestire input multimodali.

La scelta tra ChatGPT e Gemini dipende dalle esigenze specifiche dell'utente. Per applicazioni che richiedono un'interazione testuale naturale e versatile, ChatGPT è una scelta eccellente. Per compiti che necessitano di una potenza computazionale elevata e la gestione di vari tipi di input, Gemini Ultra 1.0 offre capacità senza pari.

In ogni caso, entrambi i modelli continuano a evolversi e migliorare, promettendo di portare l'intelligenza artificiale a nuovi livelli di prestazioni e utilità. La continua ricerca e sviluppo in questo campo garantiranno che sia ChatGPT che Gemini rimangano strumenti fondamentali per l'innovazione tecnologica e l'automazione del futuro.

Entra in contatto con noi

In questo articolo riporto le mie perplessità in merito alle ricadute del concetto di incertezza nei sistemi a supporto delle decisioni cercando di fare una particolare attenzione agli effetti generati sui decision support systems basati su intelligenza artificiale (AI-DSS). Il percorso che mi ha portato a questo articolo è iniziato dalle riflessioni che ho condiviso nell’articolo nel quale declino il concetto di incertezza oltre il perimetro della qualità dei dati (qui il link).

I sistemi a supporto dei processi decisionali.

Un sistema di supporto alle decisioni (DSS - Decision Support System) è un sistema software in grado di raccogliere, organizzare ed analizzare i dati aziendali al fine di fornire informazioni utili a supportare un qualsiasi processo decisionale oppure supportare attività di gestione e/o pianificazione. In altre parole, un DSS supporta le persone che devono prendere decisioni strategiche in contesti particolarmente complessi nei quali è difficile determinare quale sia la scelta giusta da prendere oppure quale strategia decisionale debba essere utilizzata per raggiungere un determinato obiettivo. La loro affidabilità la si può ricondurre agli algoritmi utilizzati per elaborare i dati ed alla qualità del dataset utilizzato. In sostanza, tali sistemi si basano su un modello semplificato della realtà costruito partendo dai dati in possesso del decisore.

I DSS basati su intelligenza artificiale.

Negli ultimi anni i sistemi software presenti nei DSS sono stati potenziati attraverso l’adozione dell’intelligenza artificiale al fine di rendere sempre più affidabile il modello di rappresentazione della realtà sulla base del quale generare delle elaborazioni. L’AI è in grado, infatti, di costruire autonomamente il modello di rappresentazione dell’universo analizzato (modello AI) e di farlo partendo dal solo dataset progettato dagli analisti.

L’importanza del giusto dataset.

Riassumendo quanto fin qui scritto, una AI sviluppa il modello di rappresentazione dell’universo da analizzare basandosi esclusivamente sul dataset che gli analisti hanno progettato. Essendo, tuttavia, il mondo reale molto più complesso della nostra capacità di sintesi, gli analisti progettano i dataset in modo tale da trovare il giusto compromesso tra un numero di dimensioni sufficientemente ampio da rappresentarne le macrodinamiche del fenomeno da analizzare ma non troppo da rendere complesso il processo di verifica dei risultati prodotti dal modello.

... e qui nascono i miei dubbi

La complessità del mondo reale.

Per quanto correttamente progettato, un dataset resta pur sempre una delle possibili rappresentazioni dell’universo nel quale si manifesta il fenomeno da analizzare. Dal momento che una delle possibili forme dell’incertezza (descritte qui) è proprio legata alla complessità dell’ambiente reale, come possiamo essere certi che il dataset progettato dagli analisti non sia affetto anche solo da incertezza ambientale? Per essere chiari, non sto parlando propriamente di bias ma di qualcosa che temo sia meno tangibile seppur potenzialmente impattante tanto quanto i bias.

Le dimensioni contano.

I miei dubbi sono legati alla scelta delle dimensioni da inserire nel dataset e dall'impossibilità di sapere come ogni dimensione concorrerà a generare il modello AI ed i risultati delle sue elaborazioni. Inoltre, le dimensioni di un modello AI (features) sono spesso considerate indipendenti le une dalle altre laddove, invece, tra le stesse potrebbero innescarsi interazioni o interdipendenze inattese che possono influenzare il risultato delle elaborazioni. Immaginiamo un modello AI a 10 dimensioni delle quali, a nostra insaputa, 3 non sono effettivamente necessarie alla sua rappresentatività ed esaustività. Possiamo pensare che, essendo dimensioni marginali, non impattino sul risultato finale generato dal modello AI. Tuttavia, non solo il modello tiene conto della loro presenza ma le pondera con un criterio che è totalmente nascosto ai nostri occhi a causa del fatto che i sistemi AI operano come delle black box.

Processo di elaborazione di una intelligenza artificiale.

Un sistema AI opera attraverso una rete neurale addestrata a compiere determinati task. Una rete neurale è un processo appartenente ad un’area specifica del machine learning chiamata Deep Learning. Le reti neurali usano una struttura stratificata di neuroni nella quale ogni strato è caratterizzato da una specifica micro-competenza e la somma delle elaborazioni effettuate da ogni singolo strato della rete neurale concorre a formare l’elaborazione finale. La capacità principale di una rete neurale è quella di imparare dai propri errori al fine di risolvere problemi complessi, come riassumere documenti o riconoscere volti, in piena autonomia. Il problema delle elaborazioni effettuate da una rete neurale è legato al fatto che ogni suo strato elabora i dati acquisiti attraverso operazioni non lineari. La somma delle elaborazioni prodotte da ogni strato concorre a generare una elaborazione finale per la quale non è possibile effettuare una verifica di correttezza. In sostanza, il processo di calcolo è talmente complesso che i data scientists non sono in grado di verificarlo. In ragione di questa natura complessa, le AI sono considerate black box.

Il problema della certezza del risultato.

Oggi le AI presentano come loro limite principale non più la potenza di calcolo o la disponibilità dei dati ma la struttura del modello AI che elabora i risultati: quando non comprendiamo adeguatamente la struttura del contesto nel quale si manifesta il fenomeno da analizzare, dobbiamo essere cauti nell’affidare ad una AI l’onere di individuare una soluzione ad un problema perché potrebbe generare una soluzione ottimale in un universo non del tutto conforme alla realtà.

Fonte articolo: Linkedin Article di Vincenzo Gioia

Entra in contatto con noi

Introduzione

Nell'era digitale odierna, l'intelligenza artificiale (IA) si è rapidamente affermata come una delle tecnologie più rivoluzionarie e trasformative. Dai motori di ricerca ai sistemi di raccomandazione, dall'automazione industriale alla medicina personalizzata, l'IA sta ridefinendo il modo in cui viviamo e lavoriamo. Le aziende tecnologiche di punta come Google e OpenAI sono al centro di questa rivoluzione, impegnate in una corsa tecnologica avvincente per sviluppare intelligenze artificiali sempre più avanzate e ottenere una posizione predominante sul mercato.

Google, in particolare, ha fatto passi da gigante con il lancio di Gemini, un'intelligenza artificiale basata sul modello linguistico di nuova generazione PaLM 2. Questo articolo, dopo aver esplorato a fondo le capacità di Chat GPT, si propone di entrare nello specifico di Gemini, esplorando le sue caratteristiche distintive, la sua storia, e le applicazioni pratiche.

L'Importanza dell'IA nel contesto tecnologico attuale

L'intelligenza artificiale ha rivoluzionato molteplici settori, diventando un elemento chiave per l'innovazione tecnologica. Dal miglioramento dei processi aziendali all'automazione delle operazioni quotidiane, l'IA offre strumenti potenti che aumentano l'efficienza e la produttività. Le grandi aziende tecnologiche sono in una continua corsa per sviluppare IA sempre più avanzate, cercando di dominare un mercato in rapida crescita e altamente competitivo. Questo panorama ha visto emergere giganti come Google, OpenAI, Microsoft e altri, ognuno con le proprie soluzioni IA che promettono di ridefinire le capacità tecnologiche.

L'innovazione di Gemini

Gemini rappresenta una delle innovazioni più recenti e avanzate nel campo dell'IA. Sviluppato da Google, Gemini è basato su PaLM 2, un modello linguistico di nuova generazione progettato per comprendere e generare linguaggio naturale con un alto grado di precisione. La capacità di Gemini di apprendere da miliardi di parole e migliorare continuamente attraverso l'interazione con gli utenti lo rende un potente strumento per una vasta gamma di applicazioni. Questo articolo mira a esplorare le caratteristiche distintive di Gemini, la sua storia, e come può essere utilizzato efficacemente.

La storia di Gemini

Gemini è il chatbot di casa Google, basato sul modello PaLM 2 di Google, un modello linguistico avanzato che rappresenta l'evoluzione di Bard, presentato durante la conferenza I/O nel 2023. L'8 febbraio 2024, Google ha ribattezzato Bard in Gemini, segnando un'importante evoluzione nel campo dell'IA. PaLM 2 è progettato per "imparare" leggendo miliardi di parole, permettendogli di comprendere il linguaggio umano in profondità e fornire feedback utili agli utenti.

L'evoluzione da Bard a Gemini non è stata solo una questione di rebranding. Google ha introdotto significative migliorie al modello, rendendolo più potente e versatile. PaLM 2, l'architettura alla base di Gemini, è stato progettato per superare le limitazioni dei modelli precedenti, utilizzando tecniche avanzate di machine learning e deep learning. Questo ha permesso a Gemini di diventare uno strumento più efficiente e capace di rispondere a una gamma più ampia di domande e compiti.

Google ha ridefinito i modelli generativi disponibili, differenziandoli in tre categorie: Nano 1.0, concepito per attività su singoli dispositivi; Pro 1.0, applicabile su scala a un'ampia gamma di attività; e Ultra 1.0, destinato a compiti altamente complessi. Questa suddivisione permette agli utenti di scegliere il modello più adatto alle loro esigenze specifiche, garantendo versatilità e potenza.

Come utilizzare Gemini

Attualmente, è possibile provare Gemini gratuitamente con il modello Pro 1.0, disponibile in oltre 40 lingue in più di 230 paesi e territori, inclusa l'Italia. Il modello Ultra 1.0, che fa parte di Gemini Advanced, è disponibile in più di 150 paesi, ma per ora solo in lingua inglese. Mentre la versione gratuita di Gemini con il modello Pro 1.0 rimarrà accessibile gratuitamente, l'accesso a Gemini Advanced sarà riservato ai sottoscrittori del piano Google One AI Premium, a partire da 21,99 euro al mese (con due mesi di prova gratuita), che include anche 2TB di spazio di archiviazione su Google Drive e altri vantaggi.

Differenze tra i modelli di Gemini

La suddivisione dei modelli di Gemini in Nano 1.0, Pro 1.0 e Ultra 1.0 riflette la versatilità e la potenza di questo strumento. Il modello Nano 1.0 è progettato per attività su singoli dispositivi, ideale per applicazioni che richiedono meno risorse computazionali. Il modello Pro 1.0, disponibile gratuitamente, è adatto a una vasta gamma di attività e può essere utilizzato in diversi settori, dalla scrittura automatica di email alla generazione di contenuti per siti web. Infine, il modello Ultra 1.0 è destinato a compiti altamente complessi, come l'analisi dei dati su larga scala e la previsione delle tendenze di mercato.

La Potenza di Gemini Ultra 1.0

Il modello Ultra 1.0 di Gemini Advanced è estremamente potente, con i suoi 540 miliardi di parametri, superando persino il modello GPT-4 di ChatGPT, che ne ha 175 miliardi. Questa capacità consente a Gemini di comprendere e elaborare input multimodali, come testo, immagini, audio e video, rendendolo estremamente versatile e in grado di affrontare compiti complessi. Può essere utilizzato per migliorare la produttività, generare codice, pianificare eventi, creare documenti e molto altro, sebbene, come tutte le IA, possa occasionalmente fornire risposte imprecise o commettere errori.

Applicazioni pratiche di Gemini

Gemini offre una vasta gamma di applicazioni pratiche che lo rendono uno strumento indispensabile in molti settori. Ad esempio, nel customer service, Gemini può automatizzare le risposte ai clienti, migliorando l'efficienza e la soddisfazione del cliente. Nella sanità, può assistere i medici nell'analisi delle cartelle cliniche e nella formulazione di diagnosi preliminari. Nel settore finanziario, Gemini è in grado di analizzare dati finanziari complessi e prevedere le tendenze di mercato. Nell'educazione, fornisce supporto agli studenti attraverso tutor virtuali che possono spiegare concetti complessi e rispondere alle domande.

Le capacità di Gemini

Rispetto ad altri modelli di IA, Gemini è in grado di mantenere una coerenza e una pertinenza eccezionali nelle conversazioni prolungate. La sua capacità di comprendere il contesto in modo approfondito e di generare risposte personalizzate lo rende particolarmente utile in applicazioni che richiedono un alto grado di interazione umana. Ad esempio, in un ambiente aziendale, Gemini può assistere nella creazione di documenti complessi, offrire suggerimenti basati su dati in tempo reale e migliorare la collaborazione tra i team.

Il Futuro di Gemini e dell'IA

Il futuro di Gemini è promettente. Con il continuo sviluppo e miglioramento dei modelli linguistici, possiamo aspettarci che Gemini diventi ancora più potente e versatile. Le potenziali applicazioni sono infinite, dalla personalizzazione dei servizi al miglioramento delle operazioni aziendali, dall'innovazione nel campo della sanità alla trasformazione dell'educazione. Google continua a investire in ricerca e sviluppo per assicurare che Gemini rimanga all'avanguardia dell'innovazione tecnologica.

Conclusione

Gemini rappresenta un passo avanti significativo nel campo dell'intelligenza artificiale, grazie alla sua architettura avanzata, alla capacità di apprendere e comprendere il linguaggio umano, e alla sua versatilità nell'affrontare una vasta gamma di compiti. Con il supporto di Google, Gemini è destinato a diventare uno strumento fondamentale per aziende e individui che cercano di sfruttare al massimo le potenzialità dell'IA. Sebbene ci siano ancora sfide da affrontare, l'evoluzione continua di Gemini promette di ridefinire il futuro della tecnologia e delle nostre interazioni quotidiane con le macchine.

L'approfondimento e la comprensione di strumenti come Gemini non sono solo affascinanti, ma essenziali per navigare il futuro tecnologico in modo efficace. Questo articolo ha esplorato vari aspetti di Gemini, dalle sue origini e innovazioni alle applicazioni pratiche e alle sfide future. Con il continuo avanzamento dell'IA, possiamo aspettarci che modelli come Gemini diventino sempre più integrati nelle nostre vite, migliorando e ottimizzando innumerevoli processi e operazioni.

Entra in contatto con noi

Introduzione

Nelle città moderne, la gestione del parcheggio è una delle sfide più pressanti per amministrazioni, cittadini e aziende. La ricerca di un posto auto non solo causa stress e frustrazione, ma contribuisce anche al traffico e all'inquinamento. Per affrontare questi problemi, la tecnologia sta trasformando il modo in cui parcheggiamo grazie ai sistemi di Smart Parking. Questi sistemi integrano tecnologie avanzate per rendere il parcheggio più efficiente, sostenibile e conveniente. In questo articolo, esploreremo cos'è lo Smart Parking, come funziona, i suoi benefici e le sfide della sua implementazione.

Cos'è lo Smart Parking?

Lo Smart Parking è un sistema che utilizza tecnologie avanzate come l'Internet of Things (IoT), sensori, app mobili e intelligenza artificiale per migliorare la gestione dei parcheggi. Questi sistemi possono monitorare in tempo reale la disponibilità dei posti auto, guidare gli automobilisti verso parcheggi liberi, ottimizzare l'uso dello spazio e facilitare il pagamento elettronico.

Come funziona lo Smart Parking?

Un sistema di Smart Parking generalmente include:

Sensori: installati nei parcheggi, i sensori rilevano se un posto auto è occupato o libero;

Piattaforme IoT: i dati raccolti dai sensori vengono inviati a una piattaforma centrale che li elabora e li analizza;

Applicazioni mobili: le informazioni sulla disponibilità dei parcheggi vengono inviate agli utenti tramite app mobili, permettendo loro di trovare e prenotare posti liberi in tempo reale;

Sistemi di pagamento: le app mobili spesso integrano sistemi di pagamento elettronico, rendendo il processo di pagamento più rapido e senza contanti;

Analisi dei dati: utilizzando l'intelligenza artificiale e l'analisi dei dati, i sistemi di Smart Parking possono prevedere la domanda di parcheggio e ottimizzare l'allocazione degli spazi;

I benefici dello Smart Parking

Adottare un sistema di Smart Parking offre numerosi vantaggi per città, automobilisti e ambiente:

Riduzione del traffico: con meno tempo speso alla ricerca di un posto auto, il traffico cittadino si riduce significativamente;

Miglioramento della qualità dell'aria: meno traffico significa meno emissioni di gas serra e inquinanti atmosferici, contribuendo a migliorare la qualità dell'aria;

Convenienza per gli utenti: gli automobilisti possono trovare parcheggio più facilmente e pagare in modo rapido e semplice tramite app mobili;

Efficienza operativa: le città possono gestire meglio le risorse di parcheggio, ottimizzando l'uso degli spazi e riducendo i costi operativi;

Analisi e pianificazione: i dati raccolti possono essere utilizzati per analizzare i modelli di utilizzo del parcheggio e migliorare la pianificazione urbana.

Le sfide dello Smart Parking

Nonostante i numerosi benefici, l'implementazione dello Smart Parking presenta alcune sfide:

Costi iniziali: l'installazione di sensori, piattaforme IoT e infrastrutture di supporto richiede un investimento iniziale significativo;

Integrazione tecnologica: integrare diverse tecnologie e sistemi esistenti può essere complesso e richiede una gestione coordinata;

Manutenzione: i sensori e le infrastrutture tecnologiche necessitano di manutenzione regolare per garantire il corretto funzionamento;

Accettazione da parte degli utenti: la diffusione dello Smart Parking richiede che gli utenti siano disposti ad adottare nuove tecnologie e modalità di pagamento;

Sicurezza dei dati: la raccolta e la gestione dei dati richiedono attenzione alla sicurezza e alla privacy degli utenti.

Esempi di implementazione di Smart Parking

Molte città in tutto il mondo stanno adottando sistemi di Smart Parking con successo. Ecco alcuni esempi:

San Francisco: il progetto SFpark utilizza sensori wireless per monitorare la disponibilità dei posti auto e fornire informazioni in tempo reale agli automobilisti tramite app mobili;

Barcellona: Barcellona ha implementato un sistema di Smart Parking che include sensori, app mobili e pagamenti elettronici per migliorare l'efficienza dei parcheggi urbani;

Stoccolma: la città ha adottato un sistema di Smart Parking che utilizza tecnologie avanzate per gestire i parcheggi pubblici e ridurre il traffico.

Futuro dello Smart Parking

Il futuro dello Smart Parking è promettente, con continue innovazioni e miglioramenti tecnologici. L'uso di veicoli autonomi potrebbe rivoluzionare ulteriormente il parcheggio, con auto che si parcheggiano da sole in spazi ottimizzati. Inoltre, l'integrazione con smart grid e soluzioni di mobilità condivisa potrebbe rendere i sistemi di parcheggio ancora più efficienti e sostenibili.

Conclusione

Lo Smart Parking rappresenta una soluzione innovativa per affrontare le sfide del parcheggio nelle città moderne. Grazie all'uso di tecnologie avanzate, questi sistemi migliorano l'efficienza, riducono il traffico e l'inquinamento, e offrono una maggiore convenienza per gli automobilisti. Nonostante le sfide, l'implementazione di Smart Parking può trasformare la mobilità urbana, contribuendo a creare città più vivibili e sostenibili. Con il continuo avanzamento tecnologico, il futuro dello Smart Parking promette ulteriori miglioramenti e innovazioni, rendendo le nostre città ancora più smart.

Se vuoi approfondire il tema dello Smart Parking e scoprire in che modo abbiamo superato le criticità legate a questa novità ormai irrinunciabile per le nostre città, contattaci usando il form che trovi in fondo a questa pagina.

Entra in contatto con noi

Premessa

Ho deciso di scrivere questo articolo per mettere ordine tra le riflessioni e le deduzioni che ho maturato negli ultimi mesi relativamente al concetto di bias. Il bisogno di fare ordine è nato dalla confusione che si è generata in me nel momento in cui ho notato che il termine bias è diventato parte del linguaggio quotidiano assumendo, talvolta, accezioni per me ambigue.

Scrivendo questo articolo non nutro alcuna certezza o verità assoluta. Anzi, lo scrivo per appuntare quello che penso relativamente ai bias e lo faccio, come sempre, pubblicamente perché confido che possa trasformarsi in un’utile opportunità di confronto con chi ha la pazienza per leggere le mie riflessioni.

Prima di iniziare questa lettura, rilassati e ripeti con me:

Senza explainability l’artificial intelligence è inutile e pericolosa


Introduzione

In questo articolo parlo di bias e, come sempre, preferisco cominciare dalla definizione di bias alla quale faccio riferimento nelle mie riflessioni.

I bias sono la manifestazione di distorsioni sistematiche del giudizio frutto di euristiche cognitive delle quali abbiamo perso il controllo, ovvero scorciatoie mentali che usiamo per semplificare il processo decisionale che sono state spinte sino ad un tale livello di banalizzazione della realtà da perdere il contatto con la stessa realtà dalla quale si generano impattando negativamente sul modello decisionale adottato da qualsiasi agente intelligente biologico o artificiale (Kahneman & Egan, 2011).

I bias possono influenzare ogni modello decisionale in modo da renderlo inefficace. Anche laddove si pensa di avere approntato un modello decisionale basato su euristiche prive di bias, gli studi di Tversky dimostrano che questi assumono un ruolo fondamentale nell’analisi della realtà producendo conseguenze che non sono necessariamente rilevabili o rilevabili nel breve periodo.

La consapevolezza del ruolo strutturale e strutturante assunto dai bias nei processi decisionali basati su euristiche li rende paradossalmente un “falso problema” dei processi stessi. Un modello euristico basato su bias ammissibili e funzionali allo scopo del modello non rende il modello stesso privo di bias. Un processo decisionale nel quale non ci sono distorsioni pericolose, macroscopiche della realtà mi induce a pensare che i bias presenti nel modello sono invisibili alla nostra analisi ma efficaci nel condizionare il processo decisionale. Una costellazione ben orchestrata di bias assume nel processo decisionale la stessa meccanica dei piccoli piombi con i quali si equilibrano le ruote delle nostre autovetture: ad una determinata soglia manifestano un potente condizionamento del sistema. L’esistenza di questo processo di condizionamento fu testimoniato Alexander Nix, CEO di Cambridge Analytica, nel suo intervento “From Mad Men to Math Men” esposto alla conferenza Online Marketing Rockstars tenutasi ad Amburgo nel 2017. La forza potenzialmente cataclismica di questo condizionamento è stata testata attraverso i condizionamenti psicometrici che Cambridge Analytica ha attuato durante le elezioni politiche in Trinidad e Tobago del 2010 a favore dello United National Congress (UNC) attraverso la campagna “Do So”.

L’analisi di un modello decisionale non deve quindi soffermarsi sulla semplice individuazione della presenza di bias ovvi quali i bias razziali o di genere ma deve essere in grado di comprendere quanto la modalità di somministrazione dei singoli risultati dell’analisi compiuta è in grado di generare micro-condizionamenti strategici simili a quelli prodotti da AlphaGo con la mossa “U-37”.

La consapevolezza che il i bias non sono il vero problema di un modello decisionale mi è data anche dal fatto che i bias non sono la causa di una anomalia ma solo e sempre una mera conseguenza di quest’ultima. Per essere chiari, un bias sta all’anomalia come l’influenza sta all’infezione: è solo un sintomo.

Affermare che un sistema decisionale è affetto da bias è per me una ovvietà essendo l’intero processo decisionale basato quasi sempre su euristiche. Allo stesso tempo, parlare di bias è anche una ammissione di inadeguatezza. L’inadeguatezza è determinata dal fatto che curare un bias è l’equivalente di un trattamento sintomatico causato dalla incapacità di comprendere l’origine dell’anomalia e/o di correggere l’anomalia stessa.

I sistemi di intelligenza artificiale non sono esenti da bias perché, anche tali sistemi operano attraverso processi di clusterizzazione ovvero processi di astrazione che si basano su bias ammissibili e funzionali all’analisi.

In questo articolo espongo con approccio “passo-passo” il percorso logico che mi ha portato alle mie conclusioni, sinteticamente esposte già in questa introduzione con l’obiettivo di condividere con chi mi legge la consapevolezza che mitigare il rischio generato da dinamiche cognitive che si manifestano sotto forma di bias non esclude la presenza di bias il cui impatto è altrettanto grave ma non immediatamente riscontrabile dalla nostra capacità di valutazione.


I modelli decisionali sono, nella gran parte dei casi, basati su approcci euristici.

Sono sempre stato affascinato dai meccanismi con i quali la mente analizza il mondo e le relazioni umane. Ho letteralmente divorato la serie TV “Brain Games” targata National Geographic ed il saggio scritto da Sergio Della Sala e Michaela Dewar dal titolo “Mai fidarsi della mente” che, attraverso esperimenti al limite della magia, ci mostrano quanto sconosciuto sia, tutt'oggi, il cervello umano e quanto i meccanismi che lo governano nel quotidiano sforzo di analisi ed adattamento siano legati ad errori, ad illusioni del pensiero, ad incoerenze dei processi mentali, ad imperfezioni della memoria che portano a sviluppare vere e proprie scorciatoie decisionali.

Le scorciatoie decisionali sono la strategia adottata dal nostro cervello per risparmiare energia. Esse si manifestano tutte le volte che ci troviamo di fronte a sfide, problemi e decisioni da prendere per i quali si preferisce adottare un approccio “euristico” ovvero un approccio che fa uso di generalizzazioni, regole empiriche e assunzioni.

L’approccio euristico è un modello decisionale che si basa su un insieme di strategie, tecniche e processi creativi che ci aiutano a trovare soluzioni in modo più rapido e semplice. Con questo approccio le decisioni vengono prese considerando un numero limitato di alternative, con una consapevolezza parziale delle conseguenze di ciascuna di queste. Questo processo è guidato da "euristiche", che sono regole pratiche utilizzate per risolvere problemi o fare determinati tipi di calcolo e basate sulla consapevolezza che l'informazione disponibile non è mai perfetta e che le abilità umane sono limitate e fallibili. Come dice lo psichiatra Mauro Maldonato: “Diversamente dal calcolo formale, l'euristica è una soluzione immediata".

Le strategie, le tecniche e i processi creativi che compongono l’approccio euristico sono distorsioni utili della realtà. Queste distorsioni semplificano l’analisi dei fatti e mirano a fornire una visione soggettiva basata sulla consapevolezza che siamo in grado di riconoscere solo un numero limitato di alternative e siamo consci soltanto di alcune delle conseguenze di ciascuna alternativa. Nella maggior parte dei casi, queste distorsioni ci permettono di interpretare e, laddove possibile, prevedere la realtà in modo rapido ed efficace.


I modelli decisionali basati su euristiche sono caratterizzati da processi di semplificazione della realtà ed astrazione.

I processi di semplificazione della realtà sono basati su schemi e su categorie con le quali si organizza la conoscenza che utilizziamo nei processi di percezione, memoria e pensiero.

Gli schemi e le categorie che utilizziamo per organizzare la nostra conoscenza descrivono persone, oggetti ed eventi attraverso i soli dettagli caratterizzanti, comuni o più frequenti escludendo tutto ciò che possa essere ricondotto ad una specifica manifestazione fenomenica.

Gli schemi di conoscenza sono basati su associazioni che sono immediatamente disponibili alla nostra consapevolezza e rappresentano ciò che è più comune o considerato tipico. Per capirci, quando parlo della bellezza dei cani nessuno pensa alla bellezza del Bracco Italiano o dello Spinone Italiano perché tutti pensano all’immagine generica e soggettiva del cane che ci si è costruiti negli anni.

Gli schemi di conoscenza sono fondamentali per una corretta classificazione del mondo che richiede necessariamente l’attuazione di un processo di astrazione con il quale si crea un insieme di elementi non identici seppur appartenenti alla stessa categoria fenomenica.

I processi di astrazione sono fondamentali per una semplificazione dei processi di comprensione ed adattamento. Possiamo dire che sono alla base dei meccanismi che governano sopravvivenza ed evoluzione.

Senza un processo di astrazione saremmo incapaci di prendere decisioni perché ogni fenomeno produrrebbe un elemento a sé stante non accomunabile con altri simili. Si svilupperebbe la "sindrome da dipendenza ambientale" (Lhermitte, 1986) che rende incapaci di inibire azioni stimolate da ogni singolo input. In una condizione simile non esisterebbero le conifere o la singola specie di cui sono composte (es: pino silvestre, larice, abete, peccio) ma solo il singolo albero differente da un altro per la caratteristica assunta da ogni singola foglia.

Malgrado l’importanza dei processi di astrazione è condivisa da tutti, va ricordato che nelle astrazioni le eccezioni o la diversità non vengono prese in considerazione. Per questo motivo quando si parla degli africani non si pensa alla popolazione africana di pelle bianca, seppur esistente.

Questa tendenza degli schemi alla generalizzazione ed alla esclusione delle eccezioni porta a un pregiudizio nel momento in cui non disponiamo di informazioni sufficienti su ciò di cui stiamo parlando.


I processi di semplificazione della realtà possono generare anomalie che si manifestano sotto forma di bias cognitivi.

I processi di semplificazione che troviamo alla base del modello euristico presentano un difetto importante: il limite al quale si spingono è costituito solo dal buon senso di chi li applica. Per questo motivo, in alcuni casi, il processo euristico si spinge oltre la sola semplificazione della realtà e genera vere e proprie banalizzazioni dalle quali nascono preconcetti che, pur potendo essere derivati dalla realtà, non conservano più alcun legame oggettivo con la stessa.

La banalizzazione della realtà induce a sviluppare preconcetti che si riverberano nei processi decisionali attraverso inevitabili errori di valutazione che possono essere più o meno gravi. Tali errori, a prescindere dalla loro natura, sono genericamente chiamati “bias cognitivi” o più semplicemente “bias”.

I bias cognitivi sono, errori sistematici del pensiero che, inducendoci a deviare dalla logica o dalla razionalità, influenzano il modo in cui percepiamo la realtà, prendiamo le decisioni ed il modo in cui formuliamo i nostri giudizi.

La differenza che passa tra bias ed euristiche è, quindi, rappresentata dal fatto che le euristiche sono scorciatoie comode e rapide strettamente legate alla realtà e che portano a veloci conclusioni. I bias cognitivi sono anch’essi scorciatoie ma si manifestano attraverso pregiudizi che hanno perso ogni legame con la realtà e che si acquisiscono, nella maggior parte dei casi, senza spirito critico o giudizio.

Non è facile capire in quale punto un processo di semplificazione si trasforma in una banalizzazione dalla quale nasce un bias cognitivo. Ritengo che sia impossibile fissare una sorta di soglia che consenta di comprendere di essere in presenza di un processo di semplificazione del quale si è perso il controllo tanto da poterlo dichiarare disfunzionale al processo decisionale. Per questo motivo, forse, ci si accorge dell’esistenza di un bias sempre, per così dire, a fatto compiuto quando il processo decisionale ha manifestato i propri effetti nell’ambiente e sulle persone.


I processi di astrazione sono comuni a tutti gli agenti intelligenti.

Un mondo di unicità assolute nel quale non è possibile creare gruppi attraverso processi di astrazione è un mondo nel quale è impossibile ogni forma di vita intelligente. Per quanto possa sembrare irragionevole, organizzare la conoscenza per schemi e da questi per astrazioni è comune a tutti gli agenti intelligenti o teleologici anche di natura aliena (non umana). Per il mio cane gli uccelli sono tali a prescindere che rientrino nelle specie per le quali è stato selezionato ed addestrato a cacciare. Si potrebbe obiettare che il mio cane rincorre tutto quello che si muove in preda al solo istinto predatorio. Tuttavia la sua ritrosia a predare oggetti a lui sconosciuti è comune a tutti gli altri cani. Rammento ancora il modo in cui si è comportato quando ha visto, per la prima volta nella sua vita, un palloncino rotolare sul pavimento perché mosso dal vento e di come si è comportato nei successivi incontri con questa fenomenologia ambientale.

Le astrazioni non mancano nemmeno nelle intelligenze vegetali che attuano schemi di clusterizzazione nei processi di apprendimento e adattamento. Una testimonianza di tale capacità ci è data da Stefano Mancuso attraverso le sue osservazioni in merito ai riscontri raccolti dal naturalista e botanico francese Lamarck (1744-1829) relativamente ai comportamenti che la mimosa pudica, così chiamata perché chiude le sue foglie non appena viene sfiorata, mette in atto nel presumibile tentativo di difesa dagli erbivori.


I processi di astrazione sono presenti anche nei sistemi di intelligenza artificiale

Un aspetto specifico è, a mio parere, assunto dai sistemi di Intelligenza Artificiale (IA) che, pur non essendo forme di vita, operano come agenti teleologici e lo fanno attuando processi di astrazione e classificazione non dissimili da quelli prodotti da altre specie viventi. Come rilevato da Nello Cristianini, tutte le volte che un sistema IA attua una classificazione lo fa con un proprio costrutto teorico basato su una propria forma di intelligenza.

Non è possibile sapere quali sono le caratteristiche degli schemi di conoscenza che una IA adotta per distinguere un cane da un gatto o per classificare il mondo. Semmai lo potessimo scoprire, scopriremmo che non ha nulla a che vedere con i nostri criteri basati su dati sensoriali umani. Non mi stupirei di trovare in una IA una classificazione simile a quella proposta da Jorge Luis Borges in cui il mondo animale si divide in:

  1. animali appartenenti all’Imperatore;
  2. animali imbalsamati;
  3. animali ammaestrati;
  4. maialini;
  5. sirene;
  6. animali favolosi;
  7. cani randagi;
  8. animali inclusi nella presente classificazione;
  9. animali che tremano come se fossero pazzi;
  10. animali innumerevoli;
  11. animali disegnati con un sottile pelo di cammello;
  12. altri;
  13. animali che hanno appena rotto un vaso;
  14. animali che da lontano sembrano mosche.

La questione dei bias che si manifestano nei sistemi IA è molto più complessa se si considera il fatto che le correlazioni statistiche che sono utilizzare nei processi di astrazione sono spesso, se non sempre, definite su dati che, oltre ad essere naturalmente affetti da bias, potrebbero celare legami statistici a correlazione debole non evidenti all’uomo ed in grado di generare effetti negativi sul processo di analisi e decisione. Per capire l’importanza delle correlazioni deboli e della loro pericolosità, riporto una bella definizione prodotta dal team di Ammagamma che, a mio parere, sul tema fa scuola e divulgata David Bevilacqua: “le [correlazioni deboli sono] relazioni più flebili tra le variabili che influenzano un fenomeno [e sono] di difficile lettura e interpretazione. La nostra mente non è in grado di coglierle, a differenza delle correlazioni forti, ma dotandosi di un modello matematico è possibile individuarle [ed usarle a nostro vantaggio]”. La consapevolezza dell’importanza che le correlazioni deboli assumono nei processi di astrazione generati da una IA viene anche dagli studi condotti da James Pennebaker che dimostrano la fattibilità di una segmentazione psicometrica di un utente attraverso la sola struttura linguistica adottata nell’esposizione delle proprie opinioni. Grazie ai suoi studi ed alle correlazioni deboli, Facebook può clusterizzare gruppi di persone a partire dai soli like espressi sulle immagini e sui post pubblici degli utenti.

Riconoscere l’esistenza dei processi di astrazione in ogni agente intelligente consente di comprendere che i bias possono essere presenti in ogni processo euristico a prescindere dalla natura dell’agente che lo pone in essere. Inoltre, trovo la provocazione di Borges, un utile strumento a comprendere che i nostri principî di classificazione e di ordinamento del mondo sono tutt'altro che ovvi e naturali essendo possibile ipotizzare infiniti altri modi di organizzare gli oggetti della nostra esperienza come, per esempio, quello paradossale che ho riportato sopra.


Breve riepilogo

A questo punto del mio ragionamento è bene che faccia un breve riepilogo di quanto ho tentato di esporre fin qui.

Punto 1 - I processi euristici si basano su semplificazioni della realtà che, anche se funzionali al raggiungimento del risultato, sono la matrice dalla quale nascono i bias.

Punto 2 - I bias, essendo legati ai processi di semplificazione, non sono il frutto di un determinato livello di astrazione ma, piuttosto, il frutto di un limite determinato solo dal livello di inaffidabilità che il nostro buon senso trova ammissibile nei nostri processi cognitivi e decisionali. Nei termini esposti, il bias è presente in ogni processo euristico e tutte le volte che ci si discosta dal dato oggettivo.

Punto 3 - I processi di semplificazione sono necessari per attuare i processi di astrazione che ci consentono di comprendere il mondo a prescindere da specifiche manifestazioni fenomeniche. Ho anche riscontrato questa capacità di astrazione in agenti dotati di intelligenza aliena alla nostra.


Prima conclusione: i processi euristici sono basati su bias

Il bias, inteso come forma deviata dei meccanismi di semplificazione ed astrazione, è presente in ogni processo euristico perché è attraverso proprio all’adozione di uno o più scorciatoie che si può eludere l’adozione di un approccio logico-scientifico che è sempre molto dispendioso in termini di risorse di calcolo e tempo di acquisizione e verifica dei dati.

La presenza di bias in tutti i processi euristici è dimostrata anche dall’esperimento fatto dalla psicologa Emily Pronin che, nel 2002, ha descritto il “bias blind spot” come la naturale inclinazione della logica umana di considerare noi stessi sempre più obiettivi di chiunque altro. Un’altra dimostrazione del legame bias-euristiche ci viene dallo psicologo Paolo Legrenzi e il neurologo Carlo Umiltà che, nel libro "Molti inconsci per un cervello", scrivono:

Dato l'enorme flusso di informazioni, noi tendiamo a selezionare quelle che già conosciamo, quelle con cui siamo d'accordo, quelle che possiamo assimilare meglio grazie alla presenza di schemi e categorie mentali che ci sono familiari e che sono già consolidate. Inoltre, noi siamo inclini a condividere queste informazioni con chi la pensa come noi e con chi sappiamo che potrà apprezzare perché la pensa come noi. Queste nuove forme di vita danno luogo a una sorta di inconscio collettivo che si traduce nella radicalizzazione delle opinioni della persone. I singoli sono confortati dalla condivisione di una corrente di opinioni che è semplice, chiara, e che richiede bassi sforzi cognitivi e attentivi

Il ruolo dei bias nei processi cognitivi ha portato ad una attenta classificazione degli stessi che, in assenza di proposte tassonomiche o di modelli di riferimento, negli anni ha generato un elenco di oltre 150 voci ripartite in quattro macro-aree.

The Cognitive Bias Codex by John Manoogian

Con una lista tanto ampia di voci, trovo ovvio considerare i bias come parte inscindibile delle euristiche, malgrado in alcuni casi ne diventino l’elemento che mostra la fallacità di alcuni processi di semplificazione/astrazione.

L’idea che i processi euristici siano basati su bias più o meno efficaci non piace a nessuno perché testimonia che ogni scelta è sempre sbagliata o, se si preferisce, giusta sino a prova contraria. Questo scenario, tuttavia, non è deprecabile quanto sembra dal momento che è proprio grazie ai bias che è possibile accelerare i processi di analisi, migliorare il rilevamento dei fattori critici di scelta in situazioni mutevoli o incerte e giungere ad un modello decisionale più snello. Questo è dovuto al fatto che il bias è strettamente legato agli schemi ed alle categorie con le quali si organizza la conoscenza che è alla base dei processi di percezione, memoria e pensiero.


Seconda conclusione: i bias non sono un falso problema

Le euristiche si basano necessariamente su bias anche se, nella gran parte delle circostanze, tali bias non manifestano effetti dannosi sul contesto o sull’oggetto delle nostre decisioni. In una simile condizione, per quanto la cosa non piaccia, non serve più chiederci se una decisione è presa sulla scorta di un modello i cui meccanismi manifestano o meno dei bias. Piuttosto serve chiedersi quale sia la rilevanza assunta dai bias certamente presenti nel processo decisionale in essere. In sostanza, dal momento che le scelte sono sempre basate su errori di valutazione, concentriamoci sulla distinzione tra errori gravi ed errori poco irrilevanti i cui effetti sono, tuttavia, solo apparentemente a basso impatto.


Terza conclusione: i bias non sono una spiegazione

La visione del bias come problema che spiega l’anomalia palesata a valle di un processo decisionale è fuorviante perché trasforma i bias da effetto di una anomalia in causa dell’anomalia. I bias sono sempre il sintomo di un problema che affligge il modello decisionale e, per questo motivo, non esistono se non come manifestazione distorta di un processo cognitivo. Per essere più chiaro, non penso sia corretto dire che l’anomalia riscontrata in un processo decisionale sia riconducibile ad un bias o sia prodotta da un bias. Innanzi ad una anomalia si dovrebbe dire che il problema dalla quale si genera si manifesta sotto forma di uno o più bias.

L’interpretazione dei bias come manifestazione sintomatica di un problema cognitivo impone alcune riflessioni. La prima è rappresentata dal fatto che la correzione dell’anomalia non passa dalla correzione dei bias attraverso i quali si manifesta l’anomalia (sarebbe come abbassare la febbre invece di curare l’infezione). La seconda è rappresentata dal fatto che l’anomalia che riscontriamo attraverso uno o più bias non è detto che non ne abbia prodotto altri di eguale importanza ma non ancora individuati.


Quarta conclusione: i bias mostrano i limiti delle nostre capacità di presidio delle IA

Un bias inteso come effetto e non come causa impone l’adozione di un approccio completamente diverso da quello attualmente adottato per l’analisi dell’efficienza dei sistemi IA in cui si deve essere necessariamente in grado di individuare quale processo di astrazione ha generato l’anomalia che identifichiamo come bias. Per compiere una simile analisi delle cause, si deve conoscere nel dettaglio i parametri che concorrono alla generazione della decisione e, ancora di più, si deve conoscere quale combinazione di “segnali deboli” genera la specifica impronta statistica che ha generato l’anomalia. Ad oggi, non esiste alcun modo per essere certi del modello che ha generato la risposta.

La presenza dei bias non è, quindi, utile a spiegare qualcosa dal momento che i bias sono presenti in ogni processo euristico e sono presenti tanto nei processi di analisi i cui esiti sono conformi alle aspettative quanto in quelli che non producono i risultati attesi.

Dire che un sistema decisionale è affetto da bias significa sapere perché si è generato il bias, perché non lo si è evitato, perché correggendo l’anomalia non se ne generi uno differente in una rincorsa alla complessità tipica dei primi service pack della Microsoft degli anni ‘90.

Ma se il bias è invece una peculiarità del modello decisionale? Un modello decisionale è sempre focalizzato su un set contenuto di dati. Ciò significa che, anche se non ci fossero fenomeni di discriminazione estremi, ci troveremmo comunque in un contesto nel quale non è possibile escludere che non si sia in presenza di un bias degno della famosa mossa “U-37” di AlphaGo i cui effetti si mostrano come un veleno in un tempo ed in una modalità tale da rendere impossibile comprendere l’origine del male ed individuare una cura adeguata.

Senza un sistema decisionale ad attenzione selettiva, saremmo alla mercé degli stimoli ambientali, anche se irrilevanti o incoerenti con ciò che stiamo facendo. Potremmo pensare che sia possibile farci supportare da una IA nel processo di lettura dei dati ma, anche in questo caso, nessuno potrebbe escludere che l’agente adottato a nostro supporto non cada esso stesso vittima della complessità del mondo sviluppando l’equivalente tecnologico della "sindrome da dipendenza ambientale" (Lhermitte, 1986) che rende incapaci di inibire azioni stimolate da ogni singolo input.

Fonte articolo: Linkedin Article di Vincenzo Gioia

Entra in contatto con noi

Mi sono inoltrato nel sangue fino a tal punto che, se non dovessi spingermi oltre a guado, il tornare indietro mi sarebbe tanto pericoloso quanto l’andare avanti(Macbeth, III, 4 di William Shakespeare)

Mi ha sempre affascinato il modo in cui Shakespeare riassume con queste poche parole la condizione di Macbeth nel suo personale percorso verso l’ignoto. Non importa come sia cominciato il suo cammino, quello che conta è la chiara percezione del cosiddetto “punto di non ritorno”. L’eleganza di questa frase recitata da Macbeth nel terzo atto dell’opera Shakespeariana cela una condizione che può palesarsi come conseguenza di ogni azione importante della nostra vita privata e professionale.

La condizione che descrive Shakespeare è anche nota come “Effetto Macbeth”, sintetizza una percezione delle cose che non lascia opportunità di scelta e si basa sulla obnubilata convinzione che, proseguendo il cammino, si troverà una visione chiara delle cose o una soluzione allo stato in cui ci si trova. Questo effetto si presenta in molti casi della vita privata e professionale, laddove le nostre scelte cominciano da frasi tipo: “Non costa nulla provare”, “Tanto rischio poco” oppure dalla più spavalda forma del “Se l’ha fatto lui posso farlo tranquillamente anche io”. Nella vita professionale, l’effetto Macbeth si presenta spesso accompagnato da una sorta di mistica industriale a base di aforismi d’effetto scritti sulle pareti degli uffici: il poster di Steve Jobs con la frase motivatrice sta a questo universo come la foto di Marilyn Monroe sta al salone della parrucchiera sotto casa.

L’effetto Macbeth deriva da un approccio alle cose che ci porta a sviluppare una propensione al rischio molto alta, tanto da trascurare ogni forma di controllo e misurazione dei risultati correnti e di quelli attesi. Per sua natura l’effetto Macbeth è legato ai percorsi di esplorazione dell’ignoto che si declinano agevolmente nei processi di innovazione, di ricerca e sviluppo, di invenzione. Chiunque, una volta intrapresa una strada della quale non si è adeguatamente analizzato il rischio e/o la durata, può trovarsi nella stessa posizione di Macbeth.

Il progetto Concorde

La storia industriale ha numerosi fallimenti legati alla convinzione che non si possa tornare indietro, che non ci siano vie di fuga salvo il proseguire. Un esempio molto interessante è rappresentato dal progetto del Concorde, l’aereo supersonico prodotto dal consorzio anglofrancese formato da British Aerospace e Aérospatiale. Il Concorde è stato uno dei più ambiziosi progetti di innovazione della storia dell’aeronautica che, iniziato alla fine degli anni cinquanta, vede il decollo del primo prototipo nel marzo 1969. Si deve attendere il 4 novembre 1970 per vedere il velivolo raggiungere per la prima volta Mach 2, diventando il secondo aereo commerciale a volare a tale velocità, dopo il sovietico Tupolev Tu-144. Queste informazioni storiche sono molto importanti perché fanno capire il contesto nel quale nacquero le decisioni che portarono al primo volo del 1976 e quelle che ne determinarono il rovinoso fallimento nell’ottobre del 2003. Tuttavia, per quanto tutti pensino che la causa della sua dismissione sia dovuta al disastroso evento del luglio del 2000, la verità è che il suo abbandono fu determinato dal deficit dovuto agli impressionanti consumi, gli insostenibili costi di manutenzione, un numero esiguo di passeggeri (a causa del prezzo del volo molto elevato) e scelte di marketing spesso discutibili. Si deve attendere il tragico incidente di Parigi per vedere la chiusura del progetto Concorde perché per anni il governo francese e britannico hanno colmato il disavanzo di bilancio malgrado le evidenze finanziarie a causa della perniciosa tendenza umana ad insistere in un progetto senza tenere conto dei vantaggi futuri, ma piuttosto valutando solo gli sforzi già compiuti e gli investiti già erogati.

Il costo opportunità ed i costi irrecuperabili

L’analisi dei vantaggi futuri è descritta in economia dal concetto di “costo opportunità” con il quale si va a definire il valore futuro delle proprie scelte in ragione al costo che si deve sostenere rinunciando ad un’opportunità che ci viene concessa. In sostanza, è il sacrificio che dobbiamo compiere per effettuare una scelta. Tuttavia, nel processo di analisi degli investimenti da compiere intervengono valutazioni che tendono a dare maggiore peso ai cosiddetti “Costi Irrecuperabili”. Per meglio spiegare questa dinamica, immaginiamo di essere a capo di un progetto di ricerca e sviluppo il cui esito è tutto da verificare ed abbiamo 100.000 euro da investire nel progetto. Ora, immaginiamo queste due situazioni: nella prima ho già investito 500.000 euro e posso chiudere il progetto investendo questi 100.000 euro che ho a disposizione; nella seconda non ho ancora iniziato il progetto e posso investire i miei 100.000 euro per dare inizio a delle attività il cui esito è tutto da verificare. Come agiresti? Sono certo che sei incline ad investire solo nel primo scenario: quello in cui, a parità di incertezza, tieni conto di quello che hai già fatto. Ma se ci si pensa, qualunque risposta tu possa dare o ipotizzare non è corretta ma nemmeno sbagliata dal momento che ad essere sbagliata è la domanda che ho posto: “Come agiresti?”. Sapendo che il risultato finale è incerto, la scelta di investire o meno non cambia a prescindere dal fatto che siano stati o meno investiti soldi sul progetto. In ragione di ciò, la domanda che avrei dovuto porre è: “qual è il costo opportunità allo stato attuale del progetto?”. Solo la risposta a questa domanda avrebbe costituito la base logica sulla quale effettuare la nostra scelta.

La distorsione cognitiva nell’analisi dei costi irrecuperabili

L’errata valutazione dei costi irrecuperabili è dovuta ad una distorsione cognitiva nota come “Fallacia dei costi irrecuperabili” (in inglese “Sunk Cost Effect”) che, nel caso del Concorde, si è manifestata in conseguenza dei pesanti investimenti sostenuti dai governi francese e britannico che indussero ad ulteriori investimenti anche quando era ormai chiaro che il progetto Concorde non sarebbe stato certamente sostenibile dal punto di vista finanziario. Il bias che è dietro la fallacia dei costi irrecuperabili riguarda il comportamento paradossale per cui quando abbiamo dedicato tanto impegno, tempo e/o soldi in un progetto che sta andando male — tanto da trovarci di fronte ad una perdita irrecuperabile — invece di abbandonare il progetto e limitare le perdite, tendiamo a continuare ad investire anche se questo non farà altro che aumentare le nostre perdite. A questo punto della lettura starai forse pensando che quello di cui sto scrivendo accade solo in determinate condizioni. Starai pensando che non è possibile che capiti a te. Forse hai ragione, ma prima di proseguire permettimi di fare un secondo esempio del fenomeno di cui sto scrivendo. Immagina di essere in un ristorante a menù fisso: prima di iniziare a mangiare sai già quante e quali portate riceverai e quanto pagherai per tutto a prescindere che tu mangerai o meno tutte le portate. Sei alla tua ultima portata e ti resta da mangiare solo il dolce ma sei pieno quasi a scoppiare. Cosa fai? Ordini oppure rinunci al dolce che hai comunque pagato? Io penso che ordini e lasci nel piatto perché spinto dall’idea che hai comunque pagato per quella portata. Questo comportamento dimostra che nemmeno la scelta di quell'ultimo sorbetto al limone è esente dalla fallacia dei costi irrecuperabili. Persino in amore si presenta questo fenomeno tanto che spinge le persone a tenere in piedi relazioni infelici, che non soddisfano, che deludono solo perché lasciare il partner comporterebbe buttar via i migliori anni della propria vita. Anche in questo caso, di fatto, si sta sostenendo un costo (non recuperabile) del tempo dedicato durante il periodo trascorso insieme.

La dissonanza cognitiva di Friedman

Per conferire una dimensione accademica a quanto fin qui scritto, si può fare riferimento agli studi condotti da Daniel Friedman (University of California-Santa Cruz — UCSC) nel 2007 e descritti nella pubblicazione “Searching for the sunk cost fallacy” con la quale descrive i meccanismi psicologici alla base di cattive decisioni rispetto ai costi irrecuperabili. Secondo Friedman le cattive decisioni sono riconducibili al meccanismo della “dissonanza cognitiva” che ci porta ad una continua auto-giustificazione. In sostanza, le persone che hanno investito le proprie risorse in un’attività non remunerativa “modificano” le proprie convinzioni sulla redditività dell’investimento, al fine di evitare la spiacevole consapevolezza di aver commesso un errore. Tuttavia, la dissonanza cognitiva si manifesta in ogni persona in modo differente. Gli individui ansiosi sono più sensibili alle pressioni insite nei percorsi a forte incertezza sui risultati attesi e, quindi, situazioni tipiche dei costi irrecuperabili. In questi contesti gli ansiosi sono inclini a proseguire l’investimento pur consapevoli dell’insuccesso quasi certo laddove, invece, i soggetti tendenzialmente depressivi hanno maggiori probabilità di smettere di investire perché l’effetto dei costi irrecuperabili è alimentato da aspettative future irrealisticamente positive.

L’effetto escalation

I comportamenti che gli individui tengono in presenza dell’effetto Macbeth dimostrano chiaramente che la percezione distorta dei costi irrecuperabili produce onerose ricadute sia in termini di denaro sia in termini di tempo e lavoro. Tuttavia esiste una forma di incancrenita dell’effetto Macbeth che conferma, laddove ci fosse un dubbio, il fatto che i problemi viaggiano sempre in compagnia: parliamo di quello che è chiamato “Effetto Escalation”. Quando un progetto di qualsiasi tipo comincia ad andare male, il bias dei costi irrecuperabili spinge irrazionalmente alcuni soggetti a fare ancora più investimenti nel progetto. Ciò determina una perdita ulteriore ancor più difficile da ignorare e giustificare che, a sua volta, incoraggia un ulteriore esborso di denaro. Questa spirale crescente di investimenti è anche nota come “Effetto Vietnam” perché è chiaramente spiegata dalla condizione prodottasi nella guerra statunitense del Vietnam. Secondo l’analisi fatta dall’allora Segretario di Stato George Ball e riportata nel memorandum inviato al presidente Jhonson il 1 luglio 1965, dal momento in cui i soldati inizieranno a combattere e a morire, diventerà impossibile ritirarsi per la paura che questi soldati siano morti invano. Per tale ragione sarà necessario inviare altri uomini sul campo che moriranno a loro volta. A quel punto il ritiro diventerà impossibile senza il raggiungimento degli obiettivi dichiarati oppure l’umiliazione del paese. Anche l’effetto escalation non è lontano dalla nostra vita quotidiana. Nelle relazioni con il partner spesso si arriva a matrimoni che necessitano di un figlio per poter esistere.

La roadmap della follia

Il mio cammino professionale mi ha consentito e talvolta imposto di assistere da punti di osservazione privilegiati alle conseguenze dell’Effetto Macbeth e del conseguente Effetto Escalation. Gli insegnamenti che ne ho tratto si riassumono in un cammino ad investimenti crescenti che chiamo “roadmap della follia”. Questo cammino è comune ai progetti che ho analizzato per la stesura di questo articolo e si dipana negli step di seguito riportati:

  1. Qualcuno decide di risolvere un problema aziendale/personale o di dare sfogo alla propria creatività creando una soluzione tecnica proprietaria;
  2. L’inventore mostra il prodotto in azienda ed il responsabile di turno decide che ha del potenziale;
  3. Sulla base di una verifica di mercato fatta con qualche ricerca su Google, il responsabile di turno convince la catena di comando a stanziare il budget necessario a trasformare il semilavorato in un prodotto commercializzabile;
  4. Il team incaricato di lavorare al prodotto ne sviluppa una prima versione testabile e la forza vendite disponibile in azienda si mette all’opera;
  5. Dopo qualche mese, gli scadenti o inesistenti risultati commerciali fanno chiaramente capire che il prodotto sviluppato non ha presa sugli “early adopters” tuttavia (ecco comparire l’effetto Macbeth), essendo stato stanziato e bruciato il budget senza sortire alcun risultato, non volendo buttare via quello che si è fatto e temendo potenziali negative ricadute reputazionali, si decide di stanziare un nuovo budget e si assume una forza vendite specializzata;
  6. Dopo altri mesi, nemmeno il commerciale esperto riesce a portare risultati significativi ed il responsabile di turno si rende conto che si è esposto molto ed ora deve per forza portare a casa un risultato;
  7. Obnubilato da quanto speso e non volendo buttare via quanto già fatto, il responsabile di turno propone l’adozione interna del prodotto riscuotendo l’ennesimo insuccesso;
  8. Intestarditosi nella certezza che il prodotto sia speciale (pur non trovando riscontro sul mercato) e desideroso di salvare il salvabile, il responsabile di turno decide di contenere le perdite e salvare la reputazione costituendo un’azienda ad hoc che si occuperà del prodotto;
  9. (ecco comparire l’effetto escalation) non riuscendo nemmeno con i nuovo team a far decollare il prodotto che, a questo punto, è diventato una narrazione sulla quale il team della nuova azienda sta lavorando con passione, ed avendo bruciato altri soldi in un fallimento ormai chiaro a tutti, si decide di cercare nuovi investitori;

La fine di questa roadmap la lascio decidere a te che mi stai leggendo. Non è detto che la fine sia tragica ma, di certo, non sarà piacevole visto il percorso descritto. Tuttavia, la mia esperienza su due differenti prodotti legati a due aziende oggi fallite (un sistema operativo in cloud ed una piattaforma di procurement) mi ha indotto a prestare grande attenzione all’effetto Macbeth perché anche nella vita reale il sipario può calare.

Fonte articolo: Linkedin Article di Vincenzo Gioia

Entra in contatto con noi

Da qualche anno contribuisco a sviluppare soluzioni in ambito AI avvalendomi della competenza di un ristretto e preparato gruppo di colleghi e di un Think Tank, con il quale mi piace condividere i dubbi e le perplessità che maturo addentrandomi in questo ambito tecnologico. Negli ultimi tempi le mie riflessioni sono accompagnate da una sensazione di  incompiutezza che stamattina sono riuscito a mettere a fuoco dopo essermi imbattuto nell’opera di Robert Silvers intitolata “Barack Obama, 2009”.

In questo fotomosaico su alluminio che possiamo apprezzare nel dettaglio cliccando qui, l’artista raffigura l’ex presidente USA attraverso una tecnica con la quale, come in un mosaico, tante piccole foto sono combinate per dare vita ad un’unica grande immagine. L’opera di Silvers raffigura la visione che l’artista ha di Barack Obama attraverso le pagine sulle quali sono riportati gli articoli che parlano di lui e della sua presidenza. La caratteristica sostanziale della tecnica del fotomosaico è data dal fatto che, a differenza del mosaico, ogni tessera è un'immagine a sé stante. Ciò crea un effetto affascinante che si sviluppa su due livelli e che impone all’osservatore di porsi su differenti piani di osservazione tutti indispensabili per la comprensione di quanto è rappresentato. Ciò si ribalta nell’opera di Silvers nella possibilità data all’osservatore di costruirsi una propria immagine del personaggio Obama leggendo ogni singolo articolo oppure guardare l’immagine complessiva che emerge dall’insieme grafico di tutti gli articoli e rappresenta l’immagine soggettiva che l’artista si è costruito sul personaggio attraverso tali articoli.

Come nel fotomosaico di Silvers, anche nell’universo AI ho la sensazione che le singole componenti tecnologiche siano solo singole immagini di una tecnologia più ampia e complessa che vada vista da una differente prospettiva utile a farci comprendere cosa sia realmente una AI.

Fonte articolo: Linkedin Article di Vincenzo Gioia

Entra in contatto con noi
logo-frontiere
LinkedinInstagramYoutubeFacebookTwitter
Privacy policy
Copyright 2024 Frontiere
FRONTIERE Srl
Sede legale in Via Oslavia, 6 - 00195 Roma, RM | C.F. e P.IVA 17464921000
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram