La rivista Nature studia Chat Gpt: “E’ già chiaramente inarrestabile” 

Red
3 Min di lettura

Gli studiosi analizzano gli sviluppi dell’applicazione di intelligenza artificiale: “Potrà compiere esperimenti, ma i margini di errori sono ancora ampi” 

“E’ già chiaramente inarrestabile”. Chat Gpt affascina anche il mondo scientifico: la rivista specializzata Nature ha infatti condotto uno studio sulla nuova applicazione di intelligenza artificiale, tracciando delle conclusioni a tratti entusiaste, a tratti meno.  

Cosa dice lo studio 

Dai dati dello studio emerge che la nuova applicazione “sta imparando a poco a poco e, crescendo, potrebbe essere in grado di progettare esperimenti, analizzare dati e decidere se un articolo scientifico può essere pubblicato o meno”. Anche se “sbaglia facilmente”. Secondo Nature “è proprio questo il momento giusto per trovare le regole per utilizzarne al meglio le potenzialità, evitando che gli errori possano scardinare i principi che da sempre guidano la ricerca scientifica”. 

I nuovi utilizzi 

Alcuni scienziati stanno utilizzando ChatGPT per scrivere saggi e discorsi, nel sintetizzare gli articoli che leggono, prendere appunti sui loro esperimenti o per scrivere programmi informatici. Questo significa che programmi come questi, chiamati chatbot, ogni giorno vengono alimentati con dati e informazioni che permettono loro di imparare e di evolversi. Vale a dire, rileva Nature, che “presto questa tecnologia si evolverà al punto da poter progettare esperimenti, scrivere e completare manoscritti, condurre peer review e supportare decisioni editoriali per accettare o rifiutare manoscritti”. Dietro l’angolo potrebbero esserci una vera rivoluzione per la ricerca eun’accelerazione dell’innovazione, ma anche errori che potrebbero degradare la qualità e la trasparenza della ricerca. Potrebbero, per esempio, generare testi apparentemente convincenti ma sbagliati nei contenuti, fino a distorcere fatti scientifici e a diffondere disinformazione. Per questo motivo è meglio intervenire subito stabilendo delle regole, e sono almeno cinque quelle da cui, secondo la rivista, bisogna cominciare. 

Le regole lanciate da Nature 

La prima prevede che qualsiasi risultato prodotto da una chatbot sia sottoposto a una verifica umana, soprattutto alla luce del grande sviluppo che questi programmi potranno avere a mano a mano che si evolveranno, fino a produrre una nuova generazione di motori di ricerca capaci di dare risposte sempre più dettagliate, ma non per questo valide. La seconda regola prevede che questi programmi siano utilizzati in modo responsabile e trasparente, per esempio indicando ogni volta quale chatbot sia stata utilizzata per produrre un risultato, un documento o un’invenzione degna di brevetto. In terzo luogo, la trasparenza è d’obbligo anche nella proprietà delle chatbot e, secondo Nature, si dovrebbero intensificare gli sforzi perché siano per la maggioranza liberamente accessibili. La quarta regole prevede che si utilizzino al meglio tutti i vantaggi che l’IA potrà offrire e, infine, bisognerà estendere il più possibile il dibattito su questo tema perché aumenti la consapevolezza nella società. 

© Riproduzione riservata

Condividi questo Articolo