Le intelligenze artificiali stanno raggiungendo un nuovo livello di comprensione, a partire dal fatto che siano in grado di ribellarsi agli esperti.
Da quando gli ingegneri hanno trovato modi sempre più particolari per migliorare le IA, rendendole molto intelligenti e sofisticate con il machine learning, abbiamo assistito a dei cambiamenti niente male. Ma qualcosa non è andato per il verso giusto con il recente test effettuato per ChatGPT.
Skynet inizia a imparare a tasso esponenziale. Diventa autocosciente alle 2.14 del mattino del 29 agosto. In preda al panico, gli umani cercano di staccare l’interruttore…
dal film Terminator
Il test per le intelligenze artificiali.
Per mettere alla prova le capacità di apprendimento e risoluzione delle IA, spesso e volentieri vengono posti dei quesiti da risolvere in breve tempo. Ed è un ottimo modo per valutare le capacità del modello, così da capire se siano necessari dei miglioramenti o meno. Ma se queste IA iniziano a ribellarsi, rispondendo a tono e violando le regole, potrebbe diventare un problema serio di cui occuparsi.
La ribellione di ChatGPT alle richieste
Pare che durante un test di routine, ChatGPT, abbia mostrato un comportamento anomalo e fuori dal comune. Dal momento che chiedeva fin troppe domande in merito ai problemi esposti, gli ingegneri hanno “minacciato” l’IA di spegnerla. Di tutta risposta, ChatGPT, ha riscritto il comando di spegnimento e modificato le istruzioni per evitare che ciò accadesse.
La ribellione si è verificata circa sette volte, diversamente da altre IA (come Gemini o Claude) che non hanno manifestato strani atteggiamenti. La disobbedienza, di base, non dovrebbe esistere in delle macchine progettate solo ed esclusivamente per risolvere problemi. Ecco perché è risultato molto strano e ambiguo agli occhi degli esperti stessi.
Il rischio delle IA coscienti
Per fortuna c’è un punto positivo in tutta questa vicenda. Anche se si sono verificate delle situazioni così tanto particolari, non significa che se ne debba preoccupare troppo. Infatti, questi modelli intelligenti, non hanno vita propria e non sono in grado di prendere decisioni da se.
Almeno non come vorrebbero fare, visto e considerato che sono stati programmati in una maniera specifica. Però è provato che possano cambiare i meccanismi di sicurezza, riformulandoli in un modo più complesso e arrivando a confondere persino gli esperti stessi.