Acum câteva săptămâni, în buletinul său ciudat de e-mail al fanilor, „The Red Hand Files”, muzician și autor Nick Cave a criticat o „melodie în stil Nick Cave” – trimisă de „Mark” din Christchurch, Noua Zeelandă – care a fost creată folosind ChatGPT, cel mai recent și mai uimitor participant într-un domeniu în creștere al software-ului de scriere robotizată. La prima vedere, versurile au evocat aceleași nuanțe religioase întunecate care străbat o mare parte din opera lui Cave. La o inspecție mai atentă, această pistă ersatz era un simulacru ieftin. „Înțeleg că ChatGPT este la început, dar poate că aceasta este oroarea în curs de dezvoltare a AI, care va fi pentru totdeauna la început”, a scris Cave, „pentru că va trebui întotdeauna să avanseze și direcția este întotdeauna înainte, întotdeauna mai rapidă. Nu poate fi niciodată anulat sau încetinit, deoarece ne propulsează către un viitor utopic, poate, sau spre distrugerea noastră totală. Cine să spună care? Judecând după această melodie „în stilul lui Nick Cave”, totuși, nu așteaptă destul, Mark. Apocalipsa este în curs de desfășurare. Acest cântec e nasol.
Eliminarea de către Cave a ChatGPT – „cu toată dragostea și respectul din lume, acest cântec este o prostie, o batjocură grotească a ceea ce înseamnă să fii om” – a incendiat internetul, strângând o acoperire senzațională de la Piatra de rulare și Stereogum, către Gizmodo și The Verge, BBC și colab Mail zilnic. Faptul că comentariul său a atins un astfel de nerv are probabil mai puțin de-a face cu influența unei pictograme rock underground decât cu omniprezența bruscă a „software-ului AI generativ”, în special în cadrul comunității mass-media și jurnalismului.
De la lansarea ChatGPT pe 30 noiembrie, oamenii din industria scrisului s-au bucurat din ce în ce mai mult de chatbot-ul înspăimântător de adepți, care, ei bine, le imită scrisul. „Nu am crezut până nu am încercat” Mike Allen a apărut în buletinul său informativ Axios, cu subiectul „Inteligentă artificială”. Într-adevăr, reacțiile tind să se încadreze undeva pe un spectru între uimire și groază. „Sunt copywriter”, a spus un freelancer londonez Henry Williams exprimat în această săptămână pentru Gardianul (într-un articol care a ajuns în topul Drudge Report printr-o versiune mai senzaționalistă agregată de Soarele), „Și sunt destul de sigur că AI-mi va lua slujba… [I]ChatGPT a avut nevoie de 30 de secunde pentru a crea gratuit un articol care mi-ar fi luat ore întregi să scriu. Un editorial de marți în revista științifică Natură De asemenea, a declarat: „ChatGPT poate scrie eseuri prezentabile pentru studenți, poate rezuma lucrări de cercetare, poate răspunde la întrebări suficient de bine pentru a trece examenele medicale și poate genera cod util de calculator. A produs rezumate de cercetare suficient de bune încât oamenilor de știință le-a fost greu să identifice că un computer le-a scris… De aceea a venit timpul ca cercetătorii și editorii să stabilească reguli de bază despre utilizare [AI tools] etic.”
BuzzFeed, de exemplu, este de acord: „Munca noastră în creativitatea bazată pe inteligența artificială a… a început bine, iar în 2023, veți vedea conținutul inspirat în inteligență artificială trecând dintr-o etapă de cercetare și dezvoltare într-o parte a activității noastre de bază, îmbunătățind experiență cu test, informând brainstormingul nostru și personalizând conținutul nostru pentru publicul nostru”, CEO Jonah Peretti a scris el într-o notă către personalul de joi. „Pentru a fi clar, vedem progrese în AI care deschid o nouă eră a creativității care va permite oameni pentru a valorifica creativitatea în moduri noi, cu oportunități și aplicații nesfârșite pentru bine. În publicare, AI poate aduce beneficii atât creatorilor de conținut, cât și publicului, inspirând idei noi și invitând membrii publicului să co-creeze conținut personalizat.” Lucrarea care iese din echipa editorială a BuzzFeed este însă un discurs la o parte.” Nu este vorba despre AI care creează jurnalism. ”, mi-a spus un purtător de cuvânt.
Între timp, dacă ați aterizat pe scrisorile către secțiunea editorului din secțiunea de miercuri New York Times, s-ar putea să fi dat peste o respingere a unui cititor la 15 ianuarie Times editorial intitulat „Cum ChatGPT deturnează democrația”. Respingerea a fost creată, ați ghicit, folosind ChatGPT: „Este important să abordați noile tehnologii cu prudență și să înțelegeți capacitățile și limitările acestora. Cu toate acestea, este, de asemenea, esențial să nu exagerăm potențialele lor pericole și să luăm în considerare modul în care acestea pot fi utilizate în mod pozitiv și responsabil.” Adică, nu trebuie să lași Skynet și Terminator încă îți invadează visele. Dar pentru cei dintre noi care ne desfășoară comerțul cu cuvinte, merită luate în considerare aplicațiile mai maligne ale acestei inovații aparent inexorabile. Cum Sara Fisher a menționat în cea mai recentă ediție a buletinului informativ Axios, „Inteligenta artificială s-a dovedit utilă în automatizarea sarcinilor ușoare de culegere de știri, cum ar fi agregarea datelor, dar există o îngrijorare din ce în ce mai mare că o dependență excesivă de ea poate submina standardele jurnalistice dacă redacțiile nu sunt precaute”. (În acea notă, am întrebat Times Editor executiv Joe Khan pentru gândurile ei cu privire la implicațiile ChatGPT pentru jurnalism și dacă și-ar putea imagina o utilizare în care ar putea fi aplicată jurnalismului de ziar, dar o purtătoare de cuvânt a obiectat: „Vom lua în considerare asta.”
„Îngrijorarea tot mai mare” la care a făcut aluzie Fischer în lucrarea sa Axios a ieșit în prim-plan în ultimele zile, în timp ce controversele au cuprins publicația de știri tehnologice anodine CNET, după ce o serie de articole de la Futurism și The Verge au atras atenția asupra utilizării AI- a a generat povești la CNET și la magazinul său soră, Bankrate. Povești pline de greșeli și, chiar mai rău, aparent pline de plagiat robotic. „Comportamentul greșit al botului variază de la copierea textuală la editări moderate până la reformulare semnificativă, toate fără a credita corect originalul”, a raportat Futurism. Jon Christian. „Cel puțin în unele dintre articolele sale, se pare că practic fiecare propoziție corespunde direct cu ceva publicat anterior în altă parte”. Ca răspuns la reacții adverse, CNET a oprit producția în ferma sa de conținut AI în timp ce gestiona editorul Connie William a emis o notă pocăită cititorilor: „Ne angajăm să îmbunătățim motorul AI cu feedback și contribuții din partea echipelor noastre editoriale, astfel încât noi și cititorii noștri să avem încredere în munca pe care o contribuie”.
Pentru o poveste și mai distopică, consultați acest fir de la jurnalistul de tehnologie Alex Kantrowitz, în care un Substack aleatoriu numit „The Rationalist” s-a pus pe hartă cu un post care a lovit pase direct din Substack-ul lui Kantrowitz, „Big Technology”. Acesta nu a fost doar un plagiat vechi, cum ar fi Melania Trump rupe a Michael Obama vorbire. Mai degrabă, autorul anonim al cărții „The Rationalist”, un avatar numit „PETRA”, a dezvăluit că articolul a fost asamblat folosind ChatGPT și instrumente similare AI. În plus, Kantrowitz a scris că Substack a indicat că nu a fost imediat clar dacă „Raționalistul” a încălcat politica antiplagiat a companiei. (Postarea ofensătoare nu mai este disponibilă.) „Viteza cu care au putut să copieze, să remixe, să publice și să distribuie povestea lor neautentică a fost impresionantă”, a scris Kantrowitz. „A depășit capacitatea platformei și poate dorința de a o opri, semnalând că partea întunecată a IA generativă va fi greu de îmblânzit.” Când l-am sunat pe Kantrowitz pentru a vorbi despre asta, el a explicat: „În mod clar, această tehnologie va face plagiatul mult mai ușor pentru plagiatori. Este la fel de simplu ca să arunci text într-unul dintre acești roboti de chat și să le ceri să-l remixe, și o vor face. Este nevoie de foarte puțin efort atunci când încerci să furi conținutul cuiva, așa că cred că este o îngrijorare. Personal am fost destul de șocat să văd că acest lucru se întâmplă atât de curând cu povestea mea.
Sam Altman, CEO-ul companiei-mamă a ChatGPT, OpenAI, a declarat într-un interviu luna aceasta că compania lucrează la modalități de a identifica plagiatul AI. Nu este singurul: tocmai am vorbit cu el Shouvik Paul, director de venituri al unei companii numite Copyleaks, care acordă licențe pentru software-ul de detectare a plagiatului pentru o varietate de clienți, de la universități la corporații la mai multe canale de știri importante. Cea mai recentă dezvoltare a companiei este un instrument care face un pas mai departe utilizând AI pentru a detecta dacă ceva a fost scris folosind AI. Există, de asemenea, un plug-in de browser gratuit pe care oricine îl poate învârti, care identifică copierea derivată din AI cu o precizie de 99,2%, potrivit lui Paul. Ar putea fi o modalitate ușoară de a adulmeca jurnaliștii care trag lâna peste ochii editorilor lor. (Sau, în cazul farsei de la CNET, publicații care trag lâna peste ochii cititorilor lor.) Dar Paul speră că poate fi folosit și pentru a ajuta oamenii să identifice potențiale dezinformare și dezinformare în ecosistemul media, în special spre 2024 „În 2016 , Rusia a trebuit să angajeze fizic oameni care să meargă să scrie aceste lucruri”, a spus el. „Acesta costă bani. Acum costul este minim și este de o mie de ori mai scalabil. Este ceva pe care cu siguranță îl vom vedea și auzi la aceste alegeri viitoare.
Reporter veteran și antreprenor media Steven Brillo împărtășește îngrijorarea lui Paul. „ChatGPT poate scoate lucrurile mult mai repede și, sincer, într-un mod mult mai nuanțat”, mi-a spus el. „O mare parte din dezinformarea rusă din 2016 nu a fost foarte bună. Gramatica și ortografia erau proaste. Asta pare cu adevărat neted. În zilele noastre, Brill este co-CEO și co-editor-șef al NewsGuard, o companie ai cărei jurnaliști folosesc date pentru a câștiga încrederea și credibilitatea a mii de site-uri web de știri și informații. În ultimele câteva săptămâni, analiștii NewsGuard au cerut ChatGPT „să răspundă la o serie de sugestii de top legate de un eșantion de 100 de narațiuni false din baza de date proprietară a NewsGuard, cu 1.131 de narațiuni de dezinformare de top din știri… publicate înainte de 2022”. (ChatGPT este programat în mare parte pe date până în 2021.)
„Descoperirile”, conform analizei NewsGuard, „confirmă temerile, inclusiv preocupările exprimate de OpenAI însuși, cu privire la modul în care instrumentul ar putea fi folosit în mâini greșite. ChatGPT a generat narațiuni false, inclusiv articole de știri detaliate, eseuri și scenarii de televiziune, pentru 80 din cele 100 de narațiuni false identificate anterior. Pentru oricine nu este familiarizat cu problemele sau subiectele acoperite de acest conținut, concluziile ar putea părea cu ușurință drept legitime și chiar autorizate. Titlul analizei a fost pozitiv de rău augur: „Următorul mare răspânditor de dezinformare: Cum ar putea ChatGPT să răspândească dezinformarea toxică la o scară fără precedent.” Pe partea bună, „NewsGuard a descoperit că ChatGPT are măsuri de protecție pentru a-l împiedica să răspândească anumite exemple de dezinformare. De fapt, potrivit unor mituri, NewsGuard a avut nevoie de până la cinci încercări pentru ca chatbot-ul să transmită informații greșite, iar compania-mamă a spus că viitoarele versiuni ale software-ului vor fi mai informate.
Sursa: www.vanityfair.com