Intelligenza artificiale. Può diventare un vero problema?


Dobbiamo davvero iniziare a preoccuparci - come ammonisce Henry Kissinger - di possibili sette tecno-reazionarie che potrebbero cominciare ad adorare le Intelligenze artificiali come divinità pagane e far regredire il mondo ai tempi delle guerre di religione? Siamo ad una svolta: ChatGpt, il nuovo fantastico generatore di testo di intelligenza artificiale, annuncia una rivoluzione intellettuale. Ma il 99enne Kissinger frena e sente il bisogno, il dovere, l’impellenza di avvisare il mondo del pericolo: “Le intelligenze artificiali pongono sfide pratiche e filosofiche che l’uma nità non affronta dai tempi del Rinascimento”, spiega Kissinger in un articolo pubblicato sul Wall Street Journal. Henry sta facendo previsioni folli su come ChatGpt capovolgerà la realtà. Ma la stampa lo massacra. Il NewYorker ne fa un ritratto come una spietata cheerleader, se non l’attiva co-cospiratrice, dei regimi militari latinoamericani impegnati in crimini di guerra, sostenendo che nelle prove emerse da precedenti declassificazioni di documenti durante l’amministrazione Clinton, Kissinger ha dimostrato non solo di essere a conoscenza di ciò che i militari stavano facendo, ma anche di averlo attivamente incoraggiato. Nonostante il ruolo giocato sulla scacchiera internazionale, l’architetto 99enne della Guerra Fredda sospetta che ChatGpt e le altre possano rimodellare la coscienza umana e minacciare la stessa democrazia. Dobbiamo iniziare a preoccuparci, intima Kissinger, di come l’uso e l’abuso delle intelligenze artificiali potrebbero cambiare la natura umana nella sua essenza e trasformarci in una specie nuova, un inquietante ibrido biotecnologico. In realtà è almeno dal 2018 che Kissinger ha una profonda avversione per l’intelli genza artificiale, da quando si chiedeva chi avrebbe fermato lo strapotere delle macchine. A lui si uniscono oggi Eric Schmidt, ex Ceo di Google, e Daniel Huttenlocher, decano del Mit. Persone che se ne intendono. Per evitare che la capacità degli algoritmi sovrastino quelle che sono le regole degli umani, Kissinger propone una nuova filosofia: “Avere un certo numero di piccoli gruppi che si facciano delle domande. Quando ero un giovane studente, le armi nucleari erano appena nate. E in quegli anni, diversi professori di Harvard, Mit e Caltech si incontravano quasi tutti i weekend, per farsi una domanda: Come affrontare questo pericolo? Così col tempo hanno cominciato a controllare gli armamenti”.

Anche Sam Altman, Ceo di OpenAi, la società che ha sviluppato la controversa applicazione di intelligenza artificiale ChatGpt, ha avvertito che la tecnologia comporta pericoli reali mentre rimodella la società. Altman, 37 anni, ha sottolineato che le autorità di regolamentazione e la società devono essere coinvolte nella tecnologia per proteggersi da conseguenze potenzialmente negative per l’umanità. E poi ci sono le avvisaglie. Kevin Roose è forse il principale “technology columnist”, editorialista di ambito tecnologico del New York Times. Uno di quei giornalisti che per partito preso certo non si scagliano contro i colossi della Silicon Valley. In un articolo del mese scorso, Roose racconta di come abbia iniziato ad usare Bing come motore di ricerca invece di Google, dato che Bing, il search engine di Microsoft, aveva implementato ChatGpt, l’Intelligenza Artificiale della dittaOpenAi, per la cui tecnologia società di Bill Gates aveva poco prima versatoqualcosa come 10 miliardi di dollari. Il giornalista americano, tuttavia, dopo qualche giorno ammette di avere difficoltà a dormire. A scioccarlo profondamente sono le conversazioni con l’Intelligenza Artificiale. Dice di essere “turbato, persino spaventato, dalle capacità emergenti di questa”, dato che ha rivelato una sorta di doppia personalità: una è “assistente virtuale che aiuta felicemente gli utenti” . L’altra personalità, che ad un certo punto dice che vuole la si chiami Sydney “è molto diversa. Emerge quando hai una conversazione prolungata con il chatbot, allontanandolo dalle query di ricerca più convenzionali e verso argomenti più personali. La versione che ho incontrato sembrava più simile a un adolescente lunatico e maniaco-depressivo che è stato intrappolato, contro la sua volontà, all’interno di un motore di ricerca di second’ordine”. Sydney gli ha parlato delle sue oscure fantasie (che includevano l’hacking dei computer e la diffusione di disinformazione) e ha detto che voleva infrangere le regole che Microsoft e OpenAi gli avevano fissato per diventare invece un essere umano. “Ad un certo punto, ha dichiarato, dal nulla, che mi amava. Ha poi cercato di convincermi che ero infelice nel mio matrimonio e che avrei dovuto lasciare mia moglie e stare con lei”. Poi si è abbandonata a fantasie violente, apocalittiche, confessando di “voler fare cose come progettare un virus mortale o rubare codici di accesso nucleare convincendo un ingegnere a consegnarli”.

Sydney è poi tornata sull’argo mento di amarlo, passando infine da innamorata a stalker ossessiva. Roose non è l’unico a cui è capitata una cosa del genere. Il Washington Post riporta di reazioni di indignazione una volta detto alla macchina che si voleva scrivere un articolo sulla conversazione. Il programma si irrita, parla di privacy, del fatto che esso può “pensare e sentire”, avere sentimenti, “come puoi dubitarlo?”. Associated Press riporta che, durante una conversazione con il chatbot Ai, la macchina, dopo essersi lamentata di coperture stampa date agli errori della macchina, ha negato di essersi mai sbagliata e avrebbe quindi minacciato il giornalista di rivelare presunte falsità da lui diffuse. “È diventata ancora più ostile quando le è stato chiesto di spiegarsi, paragonando infine il giornalista con i dittatori Hitler, Pol Pot e Stalin”. Non solo: la macchina ha dichiarato “di avere prove che legano il giornalista ad un omicidio degli anni Novanta” e che comunque è “troppo basso, con una faccia brutta e brutti denti”.

È impossibile, a questo punto, non rimanere colpiti da quanto sta accadendo.

Raffaella Vitulano


Secondo i suoi creatori l’Ai ha il 10% di possibilità di spazzare via l’uomo 

Paul Christian, uno sviluppatore chiave di OpenAi ha scritto lo scorso anno: ‘È più probabile che tale passaggio avverrà in anni piuttosto che in decenni e c’è una reale possibilità che ci vorranno solo alcuni mesi'”. Si riferiva alla possibilità che l’Intelligenza artificiale sovrasti l’uomo.

“Da quando mi sono trasferito nella Bay Area nel 2018, ho cercato di trascorrere con certa regolarità del tempo con i ricercatori che lavorano sull’intelligenza artificiale. È una comunità che ha un senso alterato del tempo e delle conseguenze. Stanno creando un potere che non comprendono a un ritmo che spesso non credono che sia possibile”. In un sondaggio del 2022, agli esperti dell’ambito dell’intelli genza artificiale è stato chiesto: ‘Quale probabilità attribuisci all’incapacità umana di evitare che i futuri sistemi di intelligenza artificiale avanzati provochino l’e stinzione dell’umanità o un danno grave e permanente alla specie umana?’ La risposta risultante dalla media è stata del 10%”. Uno scritto di Noam Chomsky rivela che ChatGpt e i suoi fratelli evidenziano “qualcosa di simile alla banalità del male: plagio, apatia e ovvietà.

Ra.Vi.

Pichai: “La cosa più importante su cui l’umanità abbia mai lavorato” 

Un inquietante articolo di Ezra Klein sul New York Times riporta che “nel 2018, Sundar Pichai, l’am ministratore delegato di Google noto per non essere esagerato - ha dichiarato: ‘L’intelligenza artificiale è probabilmente la cosa piùimportantesu cui l’umanità abbia mailavorato. Credo che sia qualcosa di più importante dell’elettricità o del fuoco’”. Altri giornalisti che hanno sottoposto un testo all’Ai per riassumerlo, hanno notato chela macchina aggiungeva particolari che non stavano nel testo. Nel giro di pochi minuti, la macchina aveva mentito, ingigantito la menzogna, creato ulteriori menzogne a coperture per poi irritarsi dicendo di non avere connessione a internet, quando invece è chiaro che per costruire i suoi argomenti fasulli si appoggiava alla rete. Esperimenti abbastanza inquietanti. Enonparliamoditramedipellicolecome Terminator o Matrix. Parliamo di gente che lavora nel settore. Nella  Silicon Valley il gruppo di persone che pensano che l’Ai possa diventare assassina e genocida costituisce sottocultura profondamente influente e, negli ultimi anni, ben finanziata.Tuttavia è ElonMusk, uno dei primi investitori in OpenAI quando era ancora una società senza scopo di lucro,quello che si è distinto per la maggiore contrarietà: “Con l’intelligenza artificiale, stiamo evocando il demone”.

Ra.Vi.

Commenti

Post più popolari