Într-o criză personală, mulți oameni apelează la o sursă impersonală de sprijin: Google. În fiecare zi, compania efectuează căutări pe subiecte precum sinuciderea, agresiunea sexuală și abuzul domestic. Dar Google vrea să facă mai mult pentru a direcționa oamenii către informațiile de care au nevoie și spune că noile tehnici AI care analizează mai bine complexitățile limbajului sunt de ajutor.
Mai exact, Google integrează cel mai recent model de învățare automată, MUM, în motorul său de căutare pentru a „detecta cu mai multă acuratețe o gamă mai largă de căutări de criză personale”. Compania a dezvăluit MUM la conferința sa IO de anul trecut și de atunci a folosit-o pentru a spori căutarea cu funcții care încearcă să răspundă la întrebări legate de căutarea originală.
În acest caz, MUM va putea identifica interogări de căutare legate de situații personale dificile pe care instrumentele de căutare anterioare nu le-au putut, spune Anne Merritt, manager de produs Google pentru sănătate și calitatea informațiilor.
„MUM ne poate ajuta să înțelegem întrebări mai lungi sau mai complexe precum „de ce m-a atacat când am spus că nu-l iubesc””, a spus Merrit pentru NewIT. „Poate fi evident pentru oameni că această întrebare se referă la violența domestică, dar interogările lungi, în limbaj natural, ca acestea, sunt greu de înțeles de sistemele noastre fără AI avansată.”
Alte exemple de interogări la care MUM poate reacționa includ „cele mai frecvente moduri în care este finalizată sinuciderea” (o căutare Merrit spune că sistemele anterioare „s-ar putea să fi înțeles anterior ca căutare de informații”) și „punctele fierbinți de sinucidere din Sydney” (unde, din nou, răspunsurile anterioare ar fi probabil că au returnat informații de călătorie – ignorând mențiunea „sinucidere” în favoarea interogării mai populare pentru „puncte fierbinți”). Când Google detectează astfel de căutări de criză, răspunde printr-o casetă de informații care le spune utilizatorilor „Ajutorul este disponibil”, de obicei însoțit de un număr de telefon sau de un site web pentru o organizație caritabilă de sănătate mintală precum samaritenii.
e lângă faptul că folosește MUM pentru a răspunde crizelor personale, Google spune că folosește și un model de limbaj AI mai vechi, BERT, pentru a identifica mai bine căutările care caută conținut explicit, cum ar fi pornografia. Utilizând BERT, Google spune că „reduce cu 30% rezultatele șocante neașteptate” de la an la an. Cu toate acestea, compania nu a putut împărtăși cifre absolute pentru câte „rezultate șocante” pe care le întâlnesc utilizatorii săi în medie, așa că, deși aceasta este o îmbunătățire comparativă, nu oferă nicio indicație despre cât de mare sau mică este problema de fapt.
Google este dornic să vă spună că inteligența artificială ajută compania să-și îmbunătățească produsele de căutare – mai ales într-un moment în care există o narațiune conform căreia „Căutarea Google moare”. Dar integrarea acestei tehnologii vine și cu dezavantajele ei.
Mulți experți în inteligență artificială avertizează că utilizarea din ce în ce mai mare de către Google a modelelor de limbaj de învățare automată ar putea scoate la iveală noi probleme pentru companie, cum ar fi introducerea de părtiniri și informații greșite în rezultatele căutării. Sistemele AI sunt, de asemenea, opace, oferind inginerilor o perspectivă limitată asupra modului în care ajung la anumite concluzii.
De exemplu, când am întrebat Google cum verifică în prealabil care termeni de căutare identificați de MUM sunt asociați cu crize personale, reprezentanții săi fie nu au vrut, fie nu au putut să răspundă. Compania spune că testează riguros modificările aduse produselor sale de căutare folosind evaluatori umani, dar asta nu este același lucru cu a ști dinainte cum va răspunde sistemul tău AI la anumite întrebări. Pentru Google, totuși, astfel de compromisuri se pare că merită.

