Ateismo e libertà
Benvenuto sul forum "Ateismo e libertà"

Per partecipare alle discussioni effettua il login. Non sei ancora iscritto? Registrati per iniziare a partecipare!

Frodi scientifiche e peer review

Vedere l'argomento precedente Vedere l'argomento seguente Andare in basso

Frodi scientifiche e peer review

Messaggio Da Fux il Lun Dic 22 2014, 15:58

Firme in vendita: la frode nelle riviste scientifiche

Il fenomeno della vendita di articoli scientifici già presentati per la pubblicazione a ricercatori senza scrupoli sta assumendo proporzioni sempre più allarmanti. Un'inchiesta di "Scentific American" ha identificato un centinaio di articoli sospetti, smascherando diversi casi di frode e confermando che gran parte delle manipolazioni ha origine in Cina di Charles Seife

Klaus Kayser lavora per riviste elettroniche da così tanto tempo da ricordare quando le spediva agli abbonati su floppy disk. Diciannove anni di esperienza lo hanno reso pienamente consapevole del problema delle frodi scientifiche e prende misure straordinarie per proteggere “Diagnostic Pathology”, la rivista di cui è attualmente responsabile. Per esempio, per evitare che gli autori tentino di far passare come proprie immagini al microscopio prese da Internet, chiede di inviarle insieme ai vetrini originali.

Nonostante la sua vigilanza, tuttavia, alcune ricerche condotte in modo non corretto potrebbero essersi insinuate tra gli articoli pubblicati sulla sua rivista. Sei dei 14 articoli del numero di maggio 2014, per esempio, contengono ripetizioni sospette di frasi e altre irregolarità. Quando “Scientific American” ne ha informato Kayser, non sembrava a conoscenza del problema. "Nessuno mi ha detto nulla. Ve ne sono molto grato".

“Diagnostic Pathology”, di proprietà dell'editore Springer, è considerata una rivista rispettabile. Sotto la guida di Kayser, il suo impact factor, una misura grezza della reputazione di una rivista basata sul numero di volte che un articolo è citato nella letteratura scientifica pubblicata - è 2,411: un valore che la colloca saldamente nel quarto superiore delle riviste scientifiche monitorate dal “Journal Citation Reports" della Thomson Reuters, e al 27° posto fra le 76 riviste di patologia valutate.

Ma la rivista di Kayser non è l'unica. Negli ultimi anni, casi analoghi di irregolarità nelle riviste con peer review sono apparsi nell'editoria scientifica di tutto il mondo, comprese testate di giganti del settore, come Wiley, Public Library of Science, Taylor & Francis e il Nature Publishing Group (che pubblica “Scientific American”).

Queste frodi avvengono in un momento in cui il mondo dell'editoria scientifica e della ricerca è in profonda evoluzione. Gli scienziati - per cui la pubblicazione di articoli è la via maestra per una promozione, un incarico permaente o finanziamenti -  competono più duramente che mai per far accettare i loro articoli dalle riviste con peer review. Le testate scientifiche online si sono moltiplicate, ma anche così lo spazio disponibile non ce la fa a  tenere il passo con la domanda. Il timore è che questa pressione possa indurre a barare.

Non è facile individuare gli articoli sospetti: presi singolarmente, sembrano tutti a posto. Ma analizzando il linguaggio di oltre 100 articoli scientifici, “Scientific American”ha trovato le prove di uno schema preoccupante: le tracce di quello che appare un tentativo di ingannare il sistema della peer review su scala industriale.

Per esempio, uno degli articoli pubblicati a maggio 2014 su “Diagnostic Pathology” a prima vista sembra una tipica meta-analisi. Gli autori - otto scienziati della Guangxi Medical University, in Cina - valutano se diverse variazioni di un gene noto come XPC possano essere collegate a un cancro gastrico. Trovano il collegamento, ma ammettono che il loro articolo non dice l'ultima parola sulla questione: "Tuttavia, è necessario condurre studi su campioni di grandi dimensioni usando metodi di genotipizzazione standardizzati e non soggetti a rischi di errori sistematici, e ricorrendo a popolazioni di malati di cancro gastrico e gruppi di controllo omogenei e ben assortiti. Inoltre, nell'analisi dovrebbero essere considerate le interazioni gene-gene e gene-ambiente. Studi che prendano in considerazione questi fattori possono portare a una migliore comprensione complessiva della associazione tra i polimorfismi XPC e il rischio di cancro gastrico."

Una conclusione perfettamente normale per un articolo perfettamente normale. Non c'è nulla che faccia scattare un campanello d'allarme. Ma confrontiamolo con un articolo pubblicato diversi anni prima sullo “European Journal of Human Genetics” (che è di proprietà di Nature Publishing Group), una meta-analisi sul possibile collegamento fra le variazioni di un gene noto come CDH1 e il cancro della prostata (PCA): "Tuttavia, è necessario condurre ampi studi clinici su campioni di grandi dimensioni usando metodi  e non soggetti a rischi di errori sistematici, e ricorrendo a popolazioni di pazienti con PCA e gruppi di controllo omogenei e ben assortiti, con valutazione dei dati in cieco. Inoltre, nell'analisi dovrebbero essere considerate le interazioni gene-gene e gene-ambiente. Studi che prendano in considerazione questi fattori possono portare a una migliore comprensione complessiva della associazione tra i polimorfismi CDH1-160 C/A e il rischio di PCA."

La formulazione è quasi identica, fino all'imbarazzante " portare a una migliore comprensione complessiva". Le uniche differenze sostanziali sono il gene specifico (CDH1 anziché XPC) e la malattia (tumore gastrico anziché PCA).

Ma non è un semplice caso di plagio. Molti gruppi di ricerca apparentemente indipendenti hanno copiato lo stesso passaggio. Un articolo su “PLoS ONE” può portare a "una migliore comprensione complessiva" dell'associazione tra le mutazioni nel gene XRCC1 e il rischio di cancro alla tiroide. Un altro sull'”International Journal of Cancer” (edito da Wiley) potrebbe portare a "una migliore comprensione complessiva" dell'associazione tra le mutazioni nel gene XPA e rischio di cancro e così via. A volte ci sono piccole variazioni nella formulazione, ma abbiamo trovato un linguaggio quasi identico in più di una decina di articoli, con diversi geni e malattie apparentemente inseriti di peso nel paragrafo.

Abbiamo trovato altri esempi della stessa tecnica.  Una ricerca per la frase "esclusi a causa della evidente irrilevanza" ha portato a più di una dozzina di articoli di vario tipo, tutti scritti, tranne uno, da scienziati provenienti dalla Cina. Anche "ricorrendo a una forma standardizzata dei dati provenienti da studi pubblicati" produce più di una dozzina di articoli di ricerca, tutti dalla Cina. E così pure  "il grafico a imbuto di Begger" (Begger's funnel plot).

Quest'ultima espressione è particolarmente rivelatrice. Non esiste nulla che si chiami grafico a imbuto di Begger. "Non esiste. Questo è il punto", spiega Guillaume Filion, biologo del Center for Genomic Regulation di Barcellona (pdf). [Il funnel plot è un metodo sintetico rappresentazione grafica di dati per evidenziare eventiali bias. NdT] Due statistici,  di nome Colin Begg e Matthias Egger, hanno ideato test e strumenti per cercare gli errori sistematici che si possono insinuare in una meta-analisi. Il "il grafico a imbuto di Begger" sembra un ibrido accidentale dei due nomi.

Filion ha notato la proliferazione dei test "di Begger" per caso. Mentre studiava i trend nelle pubblicazioni di articoli su riviste mediche, ha trovato articoli che avevano titoli quasi identici, scelte grafiche simili e gli stessi errori bizzarri, come "il grafico a imbuto di Begger". Filion suppone che gli articoli provengano dalla stessa fonte, anche se sono apparentemente scritti da gruppi di autori diversi: "E' difficile immaginare che 28 persone abbiano inventato in modo indipendente il nome di un test statistico".

Basta una rapida ricerca su Internet per scoprire siti che offrono, a pagamento, la paternità di articoli su riviste peer-reviewed. Evidentemente soddisfano i ricercatori che sono a caccia di un modo rapido, e truffaldino, di aggiudicarsi una pubblicazione su una prestigiosa rivista scientifica internazionale.

“Scientific American” ha chiesto a un giornalista che parla cinese di contattare MedChina, che offre decine di "temi scientifici in vendita" e accordi di "trasferimento dell'articolo" a riviste scientifiche. Fingendosi di voler acquistare una paternità scientifica, il giornalista ha parlato con un rappresentante di MedChina che ha spiegato che gli articoli erano già praticamente accettati da riviste con peer review; mancavano solo un po' di editing e di revisione. Il prezzo dipende in parte dall'impact factor della rivista di destinazione e dal fatto che l'articolo sia sperimentale o di meta-analisi. Nel nostro caso, il rappresentante di MedChina ha offerto la paternità di una meta-analisi che collega una proteina al carcinoma papillifero della tiroide, la cui pubblicazione era prevista su una rivista con un impact factor di 3,353. Il prezzo: 93.000 yuan cinesi, circa 15.000 dollari.

La rivista più probabile a cui era destinato l'articolo è “Clinical Endocrinology”: è una delle cinque riviste con impact factor 3,353 e la più pertinente nel campo. Circa due settimane dopo essere stata contattata da “Scientific American”, la redazione della rivista ha confermato che un articolo sospetto sui biomarcatori per il  carcinoma papillifero della tiroide – a cui era stato  aggiunto un autore durante le revisioni – era stato identificato e respinto.

Gran parte dei finanziamenti per questi articoli sospetti viene dal governo cinese. Fra i primi 100 articoli identificati da “Scientific American”, 24 avevano ricevuto un finanziamento dalla National Natural Science Foundation of China (NSFC), un'agenzia governativa più o meno equivalente alla National Science Foundation degli Stati Uniti. Altri 17 ringraziavano per le sovvenzioni avute da altre fonti governative. Yang Wei, presidente della NSFC, ha confermato che i 24 articoli sospetti individuati da “Scientific American” sono stati poi deferiti alla Commissione di disciplina e vigilanza della Fondazione (pdf), che esamina varie centinaia di accuse di cattiva condotta ogni anno. "Ogni anno l'NSFC intraprende decine di azioni disciplinari per cattiva condotta, anche se i casi di ghostwriting sono meno comuni", ci ha scritto Yang. L'anno scorso uno dei provvedimenti disciplinari dell'agenzia ha riguardato un ricercatore che aveva comprato una proposta di finanziamento su un sito Internet. Yang sottolinea che l'agenzia si adopera per combattere i casi di cattiva condotta, e di recente ha installato anche un "controllo di somiglianza" dei possibili plagi nelle domande di sovvenzione. (Nell'anno da quando è andato online, il sistema ha trovato diverse centinaia di casi di "notevoli somiglianze" fra le circa 150.000 domande, dice Yang).

Alcuni editori stanno affrontando il problema solo ora. Altri hanno già iniziato a combattere la marea di scritti dubbi. Damian Pattinson, direttore editoriale di “PLoS ONE”, spiega che lo scorso aprile la rivista ha istituito dei controlli. "Ogni meta-analisi che arriva deve passare attraverso un controllo editoriale specifico..." che costringe gli autori a dare ulteriori informazioni, tra cui una giustificazione del motivo principale per cui hanno condotto lo studio. Come risultato, il tasso di articoli che attira l'attenzione dei revisori è diminuito di circa il 90 per cento." Anche così, la lista di “Scientific American” contiene quattro articoli sospetti pubblicati da “PLoS ONE” dopo la creazione dei controlli di sicurezza, e la paternità di un articolo di imminente pubblicazione su “PLoS ONE” era stata messa in vendita da MedChina.

BMC, Public Library of Science e altri editori usano dei software per controllare i plagi e cercare di ridurre le frodi. Non sempre, tuttavia, il software permette di risolvere il problema, dice Patel notando che gli 'articolifici'   [le ditte che producono tesi e articoli accademici a pagamento, in genere per studenti: in inglese, i cosiddetti paper mills N.d.R.] "aggiungono un ulteriore livello di complessità al problema. E' davvero molto preoccupante".

Al momento gli editori combattono una battaglia in salita. "Senza informazioni dall'interno è molto difficile vigilare", dice Bevan di “Clinical Endocrinology”. La rivista e il suo editore, Wiley, cercano di colare eventuali lacune nel processo di revisione dei testi per identificare i cambiamenti  di attribuzione tardivi e altre irregolarità. "Bisogna accettare che le persone si stiano comportando in buona fede e con onestà", dice Bevan.

Questa è la sfida fondamentale. Ora che un certo numero di aziende ha capito come fare soldi truffando le riviste scientifiche, questa presunzione di onestà rischia di diventare anacronistica. "L'intero sistema di peer review funziona sulla fiducia", dice Pattinson. "Una volta che questa è scossa, il sistema di revisione tra pari si trova ad affrontare un problema  molto grave."

(La versione originale completa di questo articolo, che include un elenco dei 100 articoli scientifici sospetti, è stata pubblicata il 17 dicembre 2014 su www.scientificamerican.com Riproduzione autorizzata, tutti i diritti riservati)

http://www.lescienze.it/news/2014/12/20/news/articoli_scientifici_plagio_falsi_autori_frode-2422414/

Mi pare un argomento interessante...

_________________
Il mio blog su ateismo e dintorni: https://ioateo.wordpress.com/

Fux


Messaggi : 7890
Data d'iscrizione : 02.01.14

https://ioateo.wordpress.com/

Tornare in alto Andare in basso

Re: Frodi scientifiche e peer review

Messaggio Da delfi68 il Lun Dic 22 2014, 17:29

bel post..una cosa di cui ignoravo assolutamente l'esistenza..

_________________

la consapevolezza della normalità della follia è una cosa che mi fa impazzire!

delfi68


Messaggi : 3240
Data d'iscrizione : 03.01.14

Tornare in alto Andare in basso

Re: Frodi scientifiche e peer review

Messaggio Da Fux il Mer Dic 24 2014, 16:31

Più pregi che difetti nel metodo della peer review

A dispetto delle critiche, il metodo della peer review si rivela complessivamente efficace nel valutare gli articoli scientifici. Il principale difetto non sembra tanto nella capacità di filtrare articoli di scarso valore, quanto nella difficoltà di riconoscere - e quindi la tendenza a scartare - i lavori particolarmente innovativi (red)

Il metodo della peer review adottato dalle principali riviste scientifiche per dare il via libera alla pubblicazione è sostanzialmente efficace nell'individuare i lavori validi ma potrebbe incontrare difficoltà nel riconoscere quelli eccezionali. (La peer review consiste nel controllo della validità scientifica generale, soprattutto metodologica, di un articolo da parte di altri specialisti del settore, che sono all'oscuro dell'identità degli autori). E' questa la conclusione di tre ricercatori (Kyle Siler, Kirby Lee e Lisa Bero, rispettivamente dell'Università di Toronto, dell'Università della California a San Francisco e dell'Università di Sydney) che hanno condotto una ricerca sistematica - ora pubblicata sui "Proceedings of the National Academy of Sciences” - per valutare pregi e difetti di quel metodo.

Benché la peer review sia generalmente considerata essenziale per la valutazione della produzione scientifica, esiste un'ampia aneddotica sugli errori che ha prodotto nel corso degli anni, rifiutando contributi poi rivelatisi importanti oppure accettando articoli mediocri o addirittura truffaldini. Tuttavia, gli studi sistematici in grado di valutare oggettivamente i limiti del metodo sono statI ben pochi, soprattutto perché è difficile riuscire a esaminare articoli rifiutati dalle riviste.

Siler, Lee e Bero hanno avuto accesso a 1008 articoli presentati nel 2003 e nel 2004 a tre fra le più importanti riviste del settore medico - gli "Annals of Internal Medicine" (AIM), il "British Medical Journal"(BMJ)  e "The Lancet" – e alle relative valutazioni da parte di revisori e redattori. Di questi le tre riviste ne hanno accettati e pubblicati 62 (il 6,2 per cento). I ricercatori si sono però concentrati in modo specifico su quelli che, dopo essere stati rifiutati da AIM, BMJ e "The Lancet", sono stati successivamente pubblicati su altre riviste. Hanno quindi confrontato il valore degli articoli pubblicati usando come misura il numero di citazioni ricevute una volta entrati a far parte della letteratura scientifica.

Molti dei testi rifiutati - ben 757 -  sono stati pubblicati su altre testate dopo una revisione più o meno incisiva da parte degli autori, ma hanno sistematicamente ricevuto meno citazioni di quelli accettati dalle tre riviste, e il loro numero di citazioni è risultato direttamente proporzionale al punteggio assegnato dalla prima peer review, confermandone quindi la qualità del giudizio.

Tuttavia, la peer review non ha sempre colto nel segno: fra gli articoli respinti senza appello da AIM, BMJ e "The Lancet" e poi pubblicati altrove, 14 hanno riscosso un consenso accademico particolarmente elevato (tanto da rientrare nel due per cento di articoli in assoluto più citati nel periodo considerato).

Questo dato - concludono Siler, Lee e Bero - suggerisce che la peer review non sia il modo migliore per riconoscere gli articoli che propongono idee particolarmente innovative, eppure "nonostante questo, i risultati mostrano che nei casi da noi studiati la peer review rappresenta nel complesso un valore aggiunto. Generalmente, anche se non sempre, redattori e revisori prendono buone decisioni sull'identificazione e la promozione della qualità degli articoli scientifici.”

http://www.lescienze.it/news/2014/12/24/news/efficacia_peer_review_articoli_rifiutati_buoni-2424860/

_________________
Il mio blog su ateismo e dintorni: https://ioateo.wordpress.com/

Fux


Messaggi : 7890
Data d'iscrizione : 02.01.14

https://ioateo.wordpress.com/

Tornare in alto Andare in basso

Re: Frodi scientifiche e peer review

Messaggio Da Contenuto sponsorizzato Oggi a 01:20


Contenuto sponsorizzato


Tornare in alto Andare in basso

Vedere l'argomento precedente Vedere l'argomento seguente Tornare in alto

- Argomenti simili

 
Permesso di questo forum:
Non puoi rispondere agli argomenti in questo forum