14 minute read
perdono di vista il punto
telligenza artificiale, di modelli linguistici, machine learning o tecnologie analoghe per la produzione dei contenuti o come assistenti nella stesura o nell’editing dei manoscritti nella sezione Ringraziamenti o nella sezione Metodi se ciò fa parte del progetto o dei metodi di ricerca formali.
Questo dovrebbe includere una descrizione del contenuto creato o modificato e il nome del modello linguistico o dello strumento, la versione e numeri identificativi, e il produttore.
Science adotta un approccio molto più deciso, vietando sostanzialmente l’utilizzo di testo generato da ChatGPT:
... stiamo aggiornando la nostra licenza e le nostre politiche editoriali per specificare che il testo generato da ChatGPT (o da qualsiasi altro strumento di intelligenza artificiale) non può essere usato nell’opera, né le figure, le immagini o i grafici possono essere prodotti da tali strumenti. Inoltre, un programma di intelligenza artificiale non può figurare come autore. Una violazione di queste politiche costituirà una cattiva condotta scientifica non diversa da quella di immagini alterate o di plagio di lavori esistenti.
Un’eccezione degna di nota è rappresentata dall’American chemical society (Acs), che sembra adottare un approccio proattivo alla definizione di linee guida sull’uso corretto delle tecnologie di intelligenza artificiale. In una viewpoint uscita su ACS Energy si ipotizza che ChatGPT possa impiegare un “approccio di guida assistita che promette di liberare il tempo dei ricercatori dall’onere della scrittura accademica e di farli tornare alla scienza”. Un
Dicembre 2022
S, ChatGPT cial intelligence in nursing tools for academic or abuse? Education Practice 2022;66:103537.
Cronistoria
Il contributo di Avi Staiman fa riferimento alle posizioni di alcune tra le più conosciute riviste scienti che internazionali. Il confronto è stato innescato a partire da un articolo uscito su una rivista di nursing in cui ChatGPT gurava tra gli autori. Abbiamo voluto ricostruire una sorta di timeline di questo dibattito che è sicuramente destinato a proseguire.
4 Gennaio 2023
16 Dicembre 2022
editoriale di ACS Nano delinea in dettaglio le migliori pratiche e le politiche per l’utilizzo di strumenti di intelligenza artificiale.
L’Acs si rende conto che ChatGPT può essere un buon strumento per l’ideazione e la scrittura, ma non una fonte affidabile di informazioni. Tuttavia, almeno per ora, Acs sembra essere un’eccezione nel panorama editoriale. Vale anche la pena di notare che il Committee on publication ethics (Cope) ha rilasciato un position statement in cui chiarisce che gli autori possono utilizzare questi strumenti a condizione che il supporto sia adeguatamente dichiarato e le funzioni specificate. Fare queste distinzioni e codificarle nelle politiche editoriali sembra essere un passo fondamentale per il futuro.
Una reazione precauzionale?
Leggendo tra le righe alcune di queste affermazioni si può percepire il timore di un’ondata di articoli prodotti da paper mill1. I controllori antiplagio tradizionali non sono ancora in grado di rilevare testi prodotti dall’intelligenza artificiale e anche gli strumenti che effettuano un’analisi più approfondita possono essere ingannati da strumenti che a loro volta riformulano testi generati dall’intelligenza artificiale. Nessuna casa editrice vuole essere la prossima Hindawi o IOP e dover affrontare ritrattazioni massicce di articoli2
D’altra parte, gli editori farebbero bene – per due motivi – a lasciare aperta la porta di servizio (la possibilità) all’utilizzo di stru-
24 Gennaio 2023
4 Gennaio 2023
menti di intelligenza artificiale da parte degli autori a supporto della loro ricerca. In primo luogo, perché monitorare passo passo l’impiego di questi strumenti non solo sarebbe un esercizio inutile ma in poco tempo potrebbe diventare un incubo. In secondo luogo, sembra che sia già partita la corsa allo sviluppo di software in grado di riconoscere contenuti generati dall’intelligenza artificiale. È probabile che gli editori spendano cifre spropositate per comprare strumenti del genere, per poi essere messi all’angolo da modelli sempre più sofisticati capaci di aggirare i rilevatori. Se l’obiettivo fosse questo, dovremmo riflettere bene prima di imbarcarci in un percorso del genere.
Le apparenze possono ingannare
Se andiamo più a fondo, troviamo diversi esempi di editori che stanno puntando a progetti collaborativi uomo-intelligenza artificiale che vengono visti come il futuro dell’editoria. Springer Nature ha recentemente annunciato la sua prima ricerca integrata con l’intelligenza artificiale e sembra che ne seguiranno molte altre. Cureus (una delle riviste di Springer Nature) sta per indire un concorso per invitare gli autori a presentare case report assistiti da ChatGPT e JMIR Publications ha recentemente pubblicato una call per raccogliere per un numero speciale articoli preparati col supporto di ChatGPT 3 Per fare scelte importanti su come rispondere correttamente all’introduzione di ChatGPT, dobbiamo rivedere una serie
26 Gennaio 2023
24 Gennaio 2023
t
O'Connor S, ChatGPT Open arti cial intelligence platforms in nursing education: tools for academic progress or abuse?
Nurse Education in Practice
“While current Ai language models do not produce statements reaching beyond the content of their training sets, we should ask ourselves whether this is a fundamental feature of the technology or just a temporary limitation”.
2022;66:103537.
Grimaldi G, Ehrler B AI et al. Machines are about to change scienti c publishing forever.
ACS Energy Letters 2023;8:878-80.
“As researchers dive into the brave new world of advanced Ai chatbots, publishers need to acknowledge the tools’ legitimate uses and lay down clear guidelines to avoid abuse”.
“While current Ai language models do not produce statements reaching beyond the content of their training sets, we should ask ourselves whether this is a fundamental feature of the technology or just a temporary limitation”.
Editorial. Tools such as ChatGPT threaten transparent science. Nature 2023;613:612.
Grimaldi G, Ehrler B AI et al. Machines are about to change scienti c publishing forever.
ACS Energy Letters 2023;8:878-80.
“For the Science journals, the word original is enough to signal that text written by ChatGPT is not acceptable”.
Thorp HH. ChatGPT is fun, but is not an author.
“As researchers dive into the brave new world of advanced Ai chatbots, publishers need to acknowledge the tools’ legitimate uses and lay down clear guidelines to avoid abuse”.
Science 2023; 6630:313.
Editorial. Tools such as ChatGPT threaten transparent science. Nature 2023;613:612.
“For the is text is Thorp but Science 2023;
2023 world chatbots, tools’ lay guidelines ChatGPT di questioni fondamentali sul modo in cui intendiamo alcuni temi della scienza, tra cui la definizione di authorship, ciò che consideriamo plagio e la natura della scrittura scientifica. Solo se riusciremo a raggiungere un consenso sui valori che guidano l’editoria scientifica, avremo la possibilità di sviluppare una policy significativa e sofisticata.
Che cos’è l’authorship nella ricerca?
Per rispondere a questa domanda, dobbiamo andare al cuore del modo in cui concepiamo la authorship nel contesto della ricerca. Per rendersi conto quanto sia intricata la questione della paternità intellettuale è sufficiente pensare al tema ancora controverso di quali nomi includere e in quale ordine nelle pubblicazioni di lavori con più autori4
Authorship come responsabilità
La direttrice di Nature, Magdalena Skipper, sostiene che “l’attribuzione della paternità comporta la responsabilità del lavoro, che non può essere applicata efficacemente ai large language model”. Se i ricercatori arrivano con i loro risultati, le loro idee e il loro punto di vista e vengono aiutati ad assemblare il tutto, questo fa sì che la loro ricerca non sia più originale o che non ne siano più responsabili?
L’authorship significa che gli autori elencati debbano scrivere ogni parola, formattare ogni riferimento e inserire ogni virgola o che si assumano la responsabilità del prodotto finale?
Gli autori potrebbero potenzialmente assumersi la responsabilità di rivedere e controllare le idee prodotte dai large language model? Anche se gpt genera parte dei dati o della narrativa di uno studio, i “prompt engineers” umani si assumerebbero comunque l’onere di fornire il prompt stesso e garantire la veridicità delle informazioni attraverso la propria revisione critica e le proprie revisioni.
Le raccomandazioni della World association of medical editors (Wame) sostengono che i chatbot non possono soddisfare i criteri di authorship dell’International committee of medical journal editors, in particolare il “fi-
26 Gennaio 2023
“For the Science journals, the word original is enough to signal that text written by ChatGPT is not acceptable”.
Thorp HH. ChatGPT is fun, but is not an author. Science 2023; 6630:313.
nal approval of the version to be published” e l’“agreement to be accountable for all aspects of the work in ensuring that questions related to the accuracy or integrity of any part of the work are appropriately investigated and resolved”. Tuttavia, questa definizione richiede un’onesta riflessione e un’autovalutazione. Dopo tutto, sono molti gli autori che contribuiscono ad articoli (come gli studenti) senza avere l’ultima parola sull’approvazione finale della versione da pubblicare e non sono responsabili di “all aspects of the work”.
L’authorship come contributo sostanziale
Oltre alla responsabilità per il lavoro prodotto, le linee guida Cope richiedono un “contributo sostanziale al lavoro”. Nella tassonomia Credit del contributo dell’autore, ci sono 14 modi diversi per dare un contributo significativo che meriti la paternità di un articolo e direi che ChatGPT potrebbe dare un contributo significativo in almeno dieci di essi. Gli autori potrebbero potenzialmente contribuire in modo significativo ed essere ritenuti responsabili, pur affidandosi ampiamente a ChatGPT sia come fonte iniziale di informazioni sia come assistente personale dell’autore?
Cos’è il plagio nella ricerca?
16 Dicembre 2022
16 Dicembre 2022
Uno dei princìpi fondamentali della paternità scientifica è che idee, parole e concetti devono essere originali o correttamente attribuiti. La parola “plagio” affonda le sue radici nel latino plagiarius, “rapitore”. Se i testi non sono originali, costituiscono un plagio, un peccato capitale nell’editoria accademica. Pertanto, è opportuno chiedersi: la generazione e l’utilizzo di testi assistiti dall’intelligenza artificiale costituiscono un plagio?
4 Gennaio 2023
Ancora più importante è la definizione di plagio. Se intendiamo per plagio l’appropriarsi di materiali che gli autori non hanno scritto di proprio pugno, allora la scrittura assistita dall’intelligenza artificiale dovrebbe essere considerata un plagio. Tuttavia, se per plagio si intende prendere idee da altri e spacciarle per proprie, allora ChatGPT potrebbe non essere considerato un plagio, in quanto questi testi sono nuovi e non “rubati” a qualcun altro. La scrittura accademica include intrinsecamente la costruzione di un’impalcatura basata sul lavoro precedente, attorno alla quale il ricercatore può aggiungere qualcosa di nuovo.
Cos’è la scrittura nella ricerca?
4 Gennaio 2023
Se vogliamo regolamentare pesantemente l’uso delle gpt, allora forse dovremmo dare un giro di vite all’uso dei ghostwriter scientifici che svolgono gran parte del lavoro di scrittura (soprattutto nell’industria) e raramente ricevono un riconoscimento, dimenticando la paternità del loro contributo. Dovremmo anche valutare se vogliamo chiedere agli autori quali altre forme di assistenza alla scrittura basate sull’intelligenza artificiale utilizzano. Strumenti come Grammarly, Writeful e persino il controllo grammaticale di Microsoft sono molto utilizzati dagli autori. Perché l’autore dovrebbe dichiarare se ha usato per scopi linguistici ChatGPT e non altri strumenti? I ricercatori di molti settori utilizzano software e strumenti per raccogliere, organizzare e analizzare i dati senza che nessuno batta ciglio. Perché dare una risposta diversa e così viscerale a una questione che riguarda la scrittura?
24 Gennaio 2023
24 Gennaio 2023
O'Connor S, ChatGPT Open arti cial intelligence platforms in nursing education: tools for academic progress or abuse?
Nurse Education in Practice 2022;66:103537.
O'Connor S, ChatGPT Open arti cial intelligence platforms in nursing education: tools for academic progress or abuse? Nurse Education in Practice 2022;66:103537.
La risposta a questa domanda dipende da come funziona esattamente ChatGPT e da come viene definito il plagio. Per quanto riguarda il primo aspetto, sembra che il rischio di copiare inconsapevolmente grandi pezzi di testo direttamente da altre fonti sia remoto, anche se piccoli frammenti di frasi possono essere trovati altrove.
“While current Ai language models do not produce statements reaching beyond the content of their training sets, we should ask ourselves whether this is a fundamental feature of the technology or just a temporary limitation”.
“While current Ai language models do not produce statements reaching beyond the content of their training sets, we should ask ourselves whether this is a fundamental feature of the technology or just a temporary limitation”.
In alternativa, pensiamo a cosa succede se gli autori traggono idee da ChatGPT per una nuova ricerca o fanno analizzare i loro risultati da ChatGPT, ma scrivono l’articolo con le proprie parole: questo potrebbe essere accettato perché l’autore sta tecnicamente scrivendo?
Credo che i ricercatori che si rispettino non utilizzeranno ChatGPT come fonte primaria, così come non utilizzeranno Wikipedia in quel modo. Tuttavia, possono usarlo in una miriade di altri modi, tra cui il brainstorming, la costruzione di frasi, l’elabo -
Grimaldi G, Ehrler B AI et al. Machines are about to change scienti c publishing forever. ACS Energy Letters 2023;8:878-80.
Grimaldi G, Ehrler B AI et al. Machines are about to change scienti c publishing forever. ACS Energy Letters 2023;8:878-80.
31 Gennaio 2023
31 Gennaio 2023
“Nonhuman artificial intelligence, language models, machine learning, or similar technologies do not qualify for authorship”.
“Nonhuman artificial intelligence, language models, machine learning, or similar technologies do not qualify for authorship”.
Flanagin A, et al. Nonhuman “ uthors” and implications for the integrity of scienti c publication and medical knowledge.
Flanagin A, et al. Nonhuman “ uthors” and implications for the integrity of scienti c publication and medical knowledge.
JAMA 2023;329:637-9.
JAMA 2023;329:637-9.
6 Febbraio 2023
6 Febbraio 2023
“After all, can you really be sure that what you are currently reading was written by human authors?”.
“After all, can you really be sure that what you are currently reading was written by human authors?”.
Liebrenz M, et al. Generating scholarly content with ChatGPT. Lancet Digital Medicine 2023;3: 105-6.
Liebrenz M, et al. Generating scholarly content with ChatGPT. Lancet Digital Medicine 2023;3: 105-6.
“As researchers dive into the brave new world of advanced Ai chatbots, publishers need to acknowledge the tools’ legitimate uses and lay down clear guidelines to avoid abuse”.
Editorial. Tools such as ChatGPT threaten transparent science. Nature 2023;613:612.
“As researchers dive into the brave new world of advanced Ai chatbots, publishers need to acknowledge the tools’ legitimate uses and down clear guidelines to avoid abuse”. Editorial. Tools such as ChatGPT threaten transparent science. Nature 2023;613:612.
6 Marzo 2023
6 Marzo 2023
“We look forward to learning more about how ChatGPT and similar generative Ai technologies can be used in the medical education context”.
“We look forward to learning more about how ChatGPT and similar generative Ai technologies can be used in the medical education context”.
Eysenbach G. The role of ChatGPT, generative language models, and arti cial intelligence in medical education: a conversation with ChatGPT and a call for papers.
Eysenbach G. The role of ChatGPT, generative language models, and arti cial intelligence in medical education: a conversation with ChatGPT and a call for papers.
JMIR Medical Education 2023;9:e46885.
JMIR Medical Education 2023;9:e46885.
2023 dive world chatbots, tools’ lay guidelines ChatGPT science. razione di dati e altro ancora. L’onere della responsabilità per la veridicità delle informazioni ricade ancora sul ricercatore, ma questo non significa che dobbiamo affrettarci a vietare la consultazione di Wikipedia perché alcuni potrebbero usarla come scorciatoia. L’adozione di una politica rigida, come quella adottata da Science, sembra ignorare la grande maggioranza dei ricercatori che agisce in buona fede e che vuole semplicemente utilizzare questi strumenti per portare avanti il proprio lavoro.
Il costo della nostra paura: far perdere agli autori non di madre lingua inglese l’opportunità di una concorrenza alla pari
Gli editori che vietano ChatGPT perdono un’opportunità unica di far concorrere alla pari gli autori eal. ChatGPT può essere utilizzato in molti modi per contribuire a migliorare la scrittura scientifica in modo significativo e limitarne l’uso lascia questi autori in una posizione di notevole svantaggio. D’altra parte, gli editori che colgono l’opportunità di sfruttare questi strumenti per supportare gruppi di lavoro internazionali possono avviare collaborazioni con ricercatori di comunità distanti o poco coinvolti a causa del loro svantaggio linguistico, aumentando la diversità nella rappresentazione della comunità della ricerca.
Ma non solo, un approccio rigido potrebbe anche rivelarsi un boomerang e ridurre la trasparenza da parte degli autori. Ecco solo alcune delle considerazioni che vale la pena fare:
26 Gennaio 2023
2. ChatGPT è già stato integrato in Bing Chat e presto lo sarà anche in Microsoft Word. Vietare questo strumento potrebbe voler dire, in poco tempo, vietare l’uso dei programmi di ricerca e di videoscrittura. È inoltre molto difficile definire con esattezza l’uso di ChatGPT in un determinato studio, come richiesto da alcuni editori, così come è quasi impossibile per gli autori descrivere in dettaglio l’uso di Google nell’ambito della loro ricerca. La linea guida di Wame di “declare the specific query function used with the chatbot” sembra richiedere un onere di documentazione non realistico.
3. I ricercatori di molti settori utilizzano già una miriade di strumenti di intelligenza artificiale come Elicit, Semantic Scholar e Scite. Dobbiamo tornare indietro e ritirare quei lavori perché hanno usato strumenti di intelligenza artificiale senza una corretta attribuzione?
Conclusioni: come vogliamo che davvero si comportino i nostri ricercatori
La proliferazione di potenti strumenti di intelligenza artificiale ci spinge a porci domande fondamentali su come percepiamo il ruolo dei ricercatori in generale e il ruolo specifico che la scrittura svolge nel loro lavoro. In altre parole, fino a che punto dovrebbe interessarci che gli autori scrivano ogni parola della propria ricerca?
Sono dell’idea che, almeno nel contesto delle discipline stem (scienza, tecnologia, ingegneria e matematica), il processo di scrittura è un mezzo per raggiungere il fine di trasmettere risultati importanti in modo chiaro e coerente. Se possiamo farlo in modo più rapido ed economico, allora forse dovremmo soffermarci a considerare i potenziali benefici. Avremmo bloccato la ricerca covid, che ha salvato diverse vite umane, perché il ricercatore aveva chiesto aiuto a uno strumento di intelligenza artificiale?
In questo contesto potrebbe esserci spazio per una distinzione importante tra le discipline umanistiche e sociali e quelle scientifiche stem. Posso vedere una giustificazione per politiche più severe nei casi in cui la scrittura è una parte essenziale della ricerca o negli studi etnografici e qualitativi in cui il ruolo dell’autore influisce sulla natura dello studio. È necessario riflettere ulteriormente sul modo in cui legiferiamo sull’uso degli strumenti di intelligenza artificiale e su un livello più granulare.
Come premessa di base, suggerisco che gli editori incoraggino i ricercatori a utilizzare tutti gli strumenti a loro disposizione per rendere il loro lavoro il più accessibile e d’impatto, continuando a educarli e formarli su come trovare, valutare e verificare le informazioni. Allo stesso tempo, gli editori devono accelerare la riforma della peer review, per essere pronti a gestire i confini ancora più torbidi tra novità e cose note – e tra fatti e finzione. F similar technologies context”.
ChatGPT,
“For the Science journals, the word original is enough to signal that text written by ChatGPT is not acceptable”.
Thorp HH. ChatGPT is fun, but is not an author. Science 2023; 6630:313.
1. Un recente sondaggio di Nature ha rilevato che l’80 per cento degli autori ha già “giocato” con ChatGPT. Molti di questi autori non sapranno quale sia la politica di un determinato editore e potrebbero inconsapevolmente “essere protagonisti di una cattiva condotta scientifica non diversa dall’alterazione di immagini o dal plagio di opere esistenti”. Vogliamo davvero criminalizzare i ricercatori che non leggono i termini e le istruzioni per gli autori riportate in caratteri minuscoli?
29 Marzo 2023
“The complex and nuanced nature of scientific research requires the expertise and input of human researchers who can ensure the accuracy, validity, and reliability of scientific claims and findings, as well as engage in the iterative and collaborative process that is essential for producing high quality scientific manuscripts”. American cademy of amily hysicians. Why ChatGPT hould ot e sed to rite cademic cientific anuscripts for ublication.
The Annals of Family Medicine 2023;2958.
1. Per inquadrare l’argomento dei paper mill (agenzie che fabbricano a pagamento articoli da proporre a riviste scienti che): Caminiti C, De Fiore L. Gli articoli scienti ci fabbricati: servono soluzioni di sistema. Recenti Prog Med 2023;114:148-53.
1 Aprile 2023
“The use of Ai to write scientific papers is clearly unethical, and its accuracy is currently in doubt. Generally speaking, writing is only a small part of the overall research”.
Chen TJ. ChatGPT and other arti cial intelligence applications speed up scientific writing. Journal of the Chinese Medical Association 2023;86:351-3.
2. La casa editrice Hindawi –acquisita nel 2022 da Wiley – ha identi cato circa 1200 articoli falsi pubblicati negli anni scorsi su proprie riviste e ha avviato un piano per la progressiva retraction di questi lavori. IOP è la casa editrice dell’Institute of physics e ha anch’essa deciso di ritirare 494 articoli che un comitato indipendente ha giudicato prodotti in modo fraudolento da agenzie. Per approfondire: http://retractionwatch.com/
3. JMIR Publications è un Gruppo editoriale nato a partire dal Journal of medical internet research, rivista con impact factor tra 7 e 8.
4. Per farsi un’idea: De Fiore L. Chi è l’autore di un articolo scienti co? Recenti Prog Med 2023;114:773-8.
Questo articolo è stato pubblicato su Scholarly Kitchen il 31 marzo 2023 ed è stato tradotto e pubblicato su Forward grazie a un accordo con l’autore, che ringraziamo per la sua disponibilità.