Discuțiile despre știință tind adesea să degenereze în dezinformare. Iată cum să identificați tacticile negaționiste ale interlocutorilor, pentru ca schimburile dumneavoastră de idei să se bazeze exclusiv pe dovezi.
V-ați regăsit vreodată într-o discuție aprinsă despre schimbările climatice, vaccinuri sau aselenizare, prezentată drept „propagandă hollywoodiană”? Ajunsă într-un astfel de punct, dezbaterea nu se mai bazează pe fapte – în scenă intră tot felul de linkuri de pe YouTube și diatribe despre oculta din spatele guvernelor. Dacă vă întrebați cum poate degenera o conversație în haos, acronimul englez FLICC poate ajuta la înțelegerea mecanismelor implicate, notează L’Actualité.
Propus de Dr. Mark Hoofnagle în 2007 și rafinat de John Cook în 2013, acest instrument extrem de util permite identificarea argumentelor eronate, invocate frecvent pentru a contesta consensul științific.
F pentru fake experts (experți falși)
Faptul că cineva deține titlul de „Dr.” nu reprezintă o garanție că persoana respectivă stăpânește domeniul despre care își dă cu părerea, ca de exemplu atunci când ai un doctorat în stomatologie, dar te prezinți ca expert în vaccinuri. Industria tutunului a inventat practic această strategie în anii 1970, recrutând așa-ziși oameni de știință „în halate albe” pentru a minimaliza pericolele fumatului, ascunzând în același timp legăturile acestora cu industria. Expertul fals nu numai că induce în eroare, el creează iluzia unei dezbateri acolo unde, de fapt, nu există niciuna.
L pentru logical fallacies (erori de logică)
Unele raționamente fac scurtături forțate, cum ar fi să pretinzi că, deoarece Hitler susținea campaniile anti-fumat, orice persoană favorabilă interzicerii fumatului trebuie să fie nazistă. Este o eroare de raționament, mai precis de guilt by association (vinovăție prin asociere). Aceste capcane argumentative distorsionează logica pentru a distrage atenția sau a induce în eroare. Gândiți-vă la straw man (sofismul omului de paie – deformarea punctului de vedere al cuiva pentru a-l face mai ușor de atacat), red herring (argumente care schimbă complet subiectul) sau false dichotomies (false dicotomii – fie ești cu noi, fie împotriva noastră). Odată identificate, aceste erori de logică nu mai pot fi ignorate.
I pentru impossible expectations (așteptări imposibile)
Această tactică constă în a cere științei să realizeze imposibilul, de exemplu să ceri ca acțiunea să fie precedată de o certitudine de 100%. Climatoscepticii recurg adesea la o astfel de abordare: „Dacă nu avem date exacte despre temperaturile de acum 10.000 de ani, cum putem ști că încălzirea globală este reală?”. Este ca și cum ai spune că dinozaurii nu au existat pentru că personal nu ai dezgropat nicio fosilă. Știința este într-o continuă evoluție și rareori perfectă. Dar acest lucru nu o face inutilă.
C pentru cherry picking (alegerea selectivă a datelor)
Este vorba despre o abordare „à la carte” a datelor: alegi doar studiul care îți susține teza și ignori cele 99 care o contrazic. Așa se face că un articol între timp retras, care susținea o legătură între vaccinuri și autism, continuă să alimenteze retorica antivaccin decenii mai târziu. Negationiștii nu se lasă descurajați de faptul că reprezintă o minoritate extremă: dimpotrivă, își revendică o anumită „onoare” și se prezintă ca rebeli care se opun „curajos” statu quo-ului.
C pentru conspiracy theories (teorii ale conspirației)
Când celelalte tactici eșuează, se ajunge la cabala ocultă. Teoriile conspirației susțin că consensul științific nu este rezultatul cercetărilor independente, ci o manevră coordonată de ascundere a adevărului. Evaluarea de către colegi? Un instrument de cenzură. Datele despre COVID? Fabricate de marile companii farmaceutice. Nu este doar paranoia, ci o logică închisă în sine, imună la dovezi. Dacă nu ești de acord, faci parte din conspirație.
De ce sunt importante toate acestea?
Deoarece negarea științei nu este doar sursa unor dezbateri frustrante, ea este și foarte periculoasă. Negarea HIV în Africa de Sud a cauzat sute de mii de decese care ar fi putut fi evitate. Retorica antivaccin alimentează epidemiile de boli prevenibile. Iar consecințele negării schimbărilor climatice le resimțim cu toții.
Dacă doriți să aprofundați modul în care aceste strategii sunt folosite pentru a distorsiona discursul public și a întârzia acțiunile necesare, citiți și articolul „Denialism: What Is It and How Should Scientists Respond?”, care a reprezentat o sursă majoră de inspirație pentru acest text și care oferă o perspectivă importantă asupra modului în care argumentele negationiste funcționează în diferite domenii, de la sănătatea publică la politica de mediu.
FLICC nu ajută doar la câștigarea dezbaterilor (deși poate face și asta), el oferă posibilitatea de a demasca dezinformarea și de a înțelege mecanismele pe care aceasta se bazează. Atunci când înțelegem modul de operare, suntem mai greu de păcălit și mai capabili să-i ajutăm ți pe alții să vadă lucrurile mai clar.