Alătură-te oricărui apel pe Zoom, intră în orice sală de curs sau urmărește orice videoclip de pe YouTube și ascultă cu atenție. Dincolo de conținut, în tiparele lingvistice, vei descoperi uniformizarea lentă și insidioasă a vocii AI. Cuvinte precum „prowess” și „tapestry”, preferate de ChatGPT, pătrund tot mai mult în vocabularul nostru, în timp ce termeni precum „bolster”, „unearth” și „nuance”, mai puțin favorizați de ChatGPT, sunt folosiți din ce în ce mai rar. Cercetătorii documentează deja schimbări în modul în care vorbim și comunicăm ca urmare a influenței ChatGPT — iar această influență lingvistică este văzută ca accelerând spre ceva mult mai amplu.
În cele 18 luni de după lansarea ChatGPT, vorbitorii au folosit cuvinte precum „meticulous”, „delve”, „realm” și „adept” cu până la 51% mai frecvent decât în cei trei ani anteriori, potrivit cercetătorilor de la Institutul Max Planck pentru Dezvoltare Umană, care au analizat aproape 280.000 de videoclipuri de pe YouTube provenite de pe canale academice. Cercetătorii au exclus alte posibile momente de schimbare anterioare lansării ChatGPT și au confirmat că aceste cuvinte se aliniază cu cele preferate de model, așa cum a fost stabilit într-un studiu anterior care a comparat 10.000 de texte editate de oameni și de AI. Vorbitorii nu își dau seama că limbajul lor se schimbă. Exact acesta este punctul central.
Un cuvânt, în special, le-a atras atenția cercetătorilor ca un fel de filigran lingvistic. „Delve” a devenit un șibolet academic, un semn de neon în mijlocul fiecărei conversații care anunță: ChatGPT a fost aici. „Internalizăm acest vocabular virtual în comunicarea de zi cu zi”, spune Hiromu Yakura, autorul principal al studiului și cercetător postdoctoral la Institutul Max Planck pentru Dezvoltare Umană.
Însă nu este vorba doar despre faptul că adoptăm limbajul AI, ci despre felul în care începem să sunăm. Chiar dacă studiile actuale se concentrează în principal pe vocabular, cercetătorii suspectează că influența AI începe să se manifeste și la nivel de ton — sub forma unui discurs mai lung, mai structurat și a unei expresivități emoționale atenuate. Așa cum spune Levin Brinkmann, cercetător științific la Institutul Max Planck pentru Dezvoltare Umană și coautor al studiului, „«Delve» este doar vârful aisbergului.”
AI se face cel mai vizibil simțită în funcții precum răspunsurile inteligente, autocorectarea și verificarea ortografică. Cercetări realizate la Cornell analizează utilizarea răspunsurilor inteligente în conversațiile online și arată că acestea cresc nivelul general de cooperare și sentimentul de apropiere dintre participanți, deoarece utilizatorii ajung să aleagă un limbaj emoțional mai pozitiv. Însă, dacă oamenii credeau că partenerul lor folosește AI în interacțiune, îl evaluau ca fiind mai puțin cooperant și mai pretențios. Esențial este faptul că nu utilizarea reală a AI i-a deranjat, ci suspiciunea că aceasta era folosită. Ne formăm percepții pe baza indiciilor lingvistice, iar proprietățile limbajului sunt cele care generează aceste impresii, spune Malte Jung, profesor asociat de știința informației la Universitatea Cornell și coautor al studiului.
Acest paradox, în care AI îmbunătățește comunicarea, dar în același timp alimentează suspiciunea, indică o pierdere mai profundă a încrederii, potrivit lui Mor Naaman, profesor de știința informației la Cornell Tech. El a identificat trei niveluri de semnale umane pe care le-am pierdut odată cu integrarea AI în comunicarea noastră. Primul nivel este cel al semnalelor de umanitate de bază, indicii care țin de autenticitatea noastră ca ființe umane, precum momentele de vulnerabilitate sau ritualurile personale, care le transmit celorlalți: „Acesta sunt eu, sunt om.” Al doilea nivel cuprinde semnalele de atenție și efort, care demonstrează „mi-a păsat suficient de mult încât să scriu asta eu însumi.” Al treilea nivel este cel al semnalelor de abilitate, care arată simțul umorului, competența și sinele nostru real. Diferența este între a trimite cuiva mesajul „Îmi pare rău că ești supărat” și „Hei, scuze că am explodat la cină, probabil nu ar fi trebuit să sar peste terapie săptămâna asta.” Unul sună plat, celălalt sună uman.
Pentru Naaman, găsirea unor modalități de a readuce și amplifica aceste semnale reprezintă direcția de urmat în comunicarea mediată de AI, deoarece AI nu schimbă doar limbajul, ci și modul în care gândim. „Chiar și pe site-urile de dating, ce mai înseamnă să fii amuzant în profilul tău sau în chat, când știm că AI poate fi amuzant în locul tău?”, întreabă Naaman. Pierderea agenției, care începe în discursul nostru și se mută în gândire, este ceea ce îl îngrijorează cel mai mult. „În loc să ne articulăm propriile gânduri, articulăm ceea ce AI ne ajută să articulăm… devenim mai ușor de convins.” Fără aceste semnale, avertizează Naaman, vom ajunge să avem încredere doar în comunicarea față în față, nici măcar în apelurile video.
Problema încrederii se amplifică atunci când luăm în considerare faptul că AI stabilește în mod discret cine are dreptul să sune „legitim” de la bun început. Cercetări ale Universității California din Berkeley au arătat că răspunsurile generate de AI conțin adesea stereotipuri sau aproximări inexacte atunci când sunt solicitate să folosească dialecte diferite de engleza americană standard. Printre exemple se numără situații în care ChatGPT repetă solicitarea utilizatorului care nu folosește engleza americană standard, din cauza lipsei de înțelegere, sau exagerează semnificativ dialectul introdus. Un respondent vorbitor de engleză singaporeză a comentat că „Singlish-ul extrem de exagerat din unul dintre răspunsuri a fost puțin stânjenitor”. Studiul a arătat că AI nu doar preferă engleza americană standard, ci aplatizează activ alte dialecte, în moduri care pot fi degradante pentru vorbitorii acestora.
Acest sistem perpetuează inexactități nu doar despre comunități, ci și despre ce înseamnă engleza „corectă”. Astfel, miza nu este doar păstrarea diversității lingvistice, ci și protejarea imperfecțiunilor care construiesc, de fapt, încrederea. Atunci când toți cei din jurul nostru încep să sune „corect”, pierdem ezitările verbale, idiomurile regionale și formulările ușor strâmbe care semnalează vulnerabilitate, autenticitate și umanitate.
Ne apropiem de un punct de ruptură, în care impactul AI asupra modului în care vorbim și scriem oscilează între doi poli: standardizarea, precum șabloanele pentru e-mailuri profesionale sau prezentări formale, și expresia autentică din spațiile personale și emoționale. Între acești poli se manifestă trei tensiuni fundamentale. Primele semnale de reacție negativă — precum academici care evită cuvântul „delve” sau oameni care încearcă activ să nu sune ca AI — sugerează că am putea să ne autoreglăm împotriva omogenizării. Sistemele AI în sine vor deveni probabil mai expresive și mai personalizate în timp, reducând potențial problema actualei „voci AI”. Iar cel mai profund risc dintre toate, așa cum a subliniat Naaman, nu este uniformitatea lingvistică, ci pierderea controlului conștient asupra propriei gândiri și exprimări.
Viitorul nu este prestabilit între omogenizare și hiperpersonalizare: el depinde de faptul dacă vom fi participanți conștienți la această schimbare. Vedem deja semne timpurii că oamenii vor reacționa atunci când influența AI devine prea evidentă, în timp ce tehnologia ar putea evolua pentru a reflecta mai bine diversitatea umană, în loc să o niveleze. Nu este o întrebare dacă AI va continua să modeleze felul în care vorbim — pentru că o va face — ci dacă vom alege în mod activ să păstrăm spațiu pentru ciudățeniile verbale și dezordinea emoțională care fac comunicarea recognoscibilă și de neînlocuit ca fiind umană.

