È possibile prevedere se le IA diventeranno coscienti (e pericolose)?

« Older   Newer »
  Share  
view post Posted on 9/10/2023, 22:09
Avatar

È importante aggiungere più vita agli anni, non più anni alla vita.

Group:
Founder
Posts:
71,482

Status:


jfdkytd

Si studia come mettere a punto contromisure nel caso che le IA sviluppino un certo grado di consapevolezza, diventando una minaccia per gli uomini.

Il recente avvento di varie forme di Intelligenza Artificiale nelle nostre vite è riuscito a far tornare d'attualità lo scenario profetizzato da un'innumerevole quantità di romanzi e di film a carattere fantascientifico: ci sarà, un giorno, una rivolta delle macchine? Un team internazionale di scienziati informatici ha preso sul serio la questione e, tra loro, un membro interno a Open AI, la società che ha lanciato quella stessa ChatGPT che è oggi probabilmente il più noto tra i software linguistici di machine learning (LLM). Lo scopo del team è di studiare la possibilità che i modelli di grandi dimensioni sviluppino un certo grado di consapevolezza situazionale, diventando una minaccia per gli uomini, ma soprattutto di prevedere e mettere a punto una contromisura.
MILIARDI DI PAROLE. Fino a oggi, al fine di determinare se una macchina può replicare un comportamento simile a quello umano si è sempre utilizzato il cosiddetto Test di Turing, che consiste nel condurre una conversazione testuale con un computer, senza che l'interlocutore possa accorgersi che non sta comunicando con un'altra persona. Ma chiunque abbia provato un software LLM può ben capire come questo test non sia più sufficiente. E così i ricercatori hanno rivolto la loro attenzione su quello che viene chiamato ragionamento fuori contesto, ossia sulla capacità dei software di ricordare i fatti acquisiti durante la fase di apprendimento (basata sullo studio dell'associazione tra miliardi e miliardi di parole) e di utilizzarli durante le verifiche, anche se questi non sono direttamente collegati alla domanda che viene loro posta.

I primi esperimenti condotti su numerose forme di intelligenza linguistica, hanno confermato che più il modello è complesso e addestrato, e migliori sono i risultati che esso ottiene, pur restando ancora ben lontano dal possedere un benché minimo grado di consapevolezza situazionale. Tuttavia, gli stessi ricercatori hanno ammesso che tale contromisura sia ancora approssimativa per indagare a fondo la questione, e che il loro studio rappresenta solo un punto di partenza che deve essere costantemente migliorato, per stare al passo con la crescita degli stessi modelli di Intelligenza Artificiale.


fonte
 
Web   Top
0 replies since 9/10/2023, 22:09   121 views
  Share