Menu Menu

In che modo gli esperti tecnologici impediranno all’intelligenza artificiale di adottare pregiudizi estremi?

Man mano che l’intelligenza artificiale si intreccia sempre più con la vita di tutti i giorni, emergono sempre più domande sui suoi pregiudizi di input.

Entro il 2032, si prevede che il valore di mercato dell’intelligenza artificiale raggiungerà i 2,760.3 miliardi di dollari.

Questa tecnologia relativamente nuova è diventata parte integrante dei nostri dispositivi più utilizzati, attraverso l'incorporazione di Siri nei nostri smartphone e computer, nonché nelle nostre case tramite assistenti virtuali come Alexa.

Ora, l’uso dell’intelligenza artificiale si sta espandendo oltre le questioni di convenienza immediata. Viene applicato a molte industrie vitali e globali nella speranza di migliorare l’efficienza e la precisione dei sistemi che le aiutano a funzionare.

Per fare solo alcuni esempi, l’intelligenza artificiale viene ora utilizzata nei processi di apprendimento delle lingue, accessibilità, terapia, assistenza sanitaria, bancaria e occupazionale.

Con i servizi essenziali che utilizzano l’intelligenza artificiale, crescono le preoccupazioni circa i pregiudizi involontari immessi nei suoi sistemi. Per eliminare questi pregiudizi, dicono gli esperti di tecnologia, è necessario diversificare il tipo di persone che si occupano della programmazione.

Uguaglianza di genere nella programmazione dell’intelligenza artificiale

Il fatto è che le donne sono decisamente sottorappresentate nei ruoli tecnologici legati all’intelligenza artificiale.

Secondo i dati più recenti riportati dal World Economic Forum, solo il 22% delle donne svolge professioni legate all’intelligenza artificiale a livello globale, mentre il restante 78% dei ruoli è ricoperto da uomini. Perché questo è problematico?

Ebbene, anche se i programmatori uomini fanno del loro meglio per rimanere imparziali quando lavorano, sono solo umani. I pregiudizi di genere possono essere inavvertitamente introdotti negli algoritmi di intelligenza artificiale quando il team di programmazione manca di diversità.

Questo pregiudizio può comportare un trattamento ingiusto degli individui in base al loro genere, rafforzando gli stereotipi e la discriminazione, il che può avere conseguenze drastiche quando la tecnologia viene utilizzata per selezionare i candidati per i colloqui durante un processo di assunzione o quando si prendono decisioni sull’approvazione dei prestiti finanziari.

È anche importante notare che avere un team di programmazione diversificato consentirà di programmare i sistemi di intelligenza artificiale con una combinazione di prospettive, esperienze e background diversi.

Ciò è essenziale per creare futuri sistemi di intelligenza artificiale che siano inclusivi e in grado di comprendere e soddisfare le esigenze di un’ampia gamma di utenti, indipendentemente dal loro genere.

 

Come tenere lontani i pregiudizi

Le donne hanno trascorso l’ultimo secolo a smantellare i sistemi di oppressione.

Avendo già avuto successo in molti settori e continuando a eliminare numerosi ostacoli rimanenti, le donne nel settore tecnologico stanno esprimendo cautela su come il settore dell’intelligenza artificiale, attualmente dominato dagli uomini, potrebbe annullare questo lavoro.

Meredith Whittaker, che ha guidato la ricerca sull’intelligenza artificiale di Google nel 2006, ha dichiarato a Euronews: “Viviamo in una cultura patriarcale e misogina in cui le posizioni di potere nel nostro mondo sono generalmente occupate da uomini, e generalmente da uomini bianchi nella maggior parte dei contesti”.

Whittaker afferma che non sorprende, quindi, che coloro che attualmente hanno il compito di dare forma all’intelligenza artificiale siano uomini.

Ha continuato a dire che se il nostro obiettivo è rendere l'intelligenza artificiale non solo utile ma sicura per tutti, la priorità numero uno dovrebbe essere quella di garantire che coloro che hanno maggiori probabilità di essere danneggiati dalla tecnologia contribuiscano a modellarla, insegnarla e programmarla.

Uno degli ostacoli all’assunzione di donne nella tecnologia dell’intelligenza artificiale è la cultura aziendale. Il mondo tecnologico ha a reputazione per avere una cultura del “club dei ragazzi”, in cui le donne in genere non vengono prese sul serio o ricompensate equamente per i loro risultati.

Di conseguenza, le donne stanno lanciando le proprie aziende tecnologiche focalizzate sul progresso dell’intelligenza artificiale, in particolare per le app che offrono assistenza con le esperienze delle donne con depressione postpartum, cicli mestruali e altro ancora.

Le richieste di programmatori diversi nel campo dell’intelligenza artificiale non dovrebbero essere così sorprendenti. I team di marketing di tutto il mondo hanno imparato in prima persona i tipi di errori e pregiudizi che si manifestano quando i team creativi non includono o rappresentano una varietà di prospettive.

Poiché si prevede che l’intelligenza artificiale supererà le capacità della mente umana nel giro di pochi anni – almeno in termini di efficienza e precisione – sarebbe seriamente pericoloso che la tecnologia funzioni a favore di pochi.

Accessibilità