Programul de generare de text ChatGPT, dezvoltat de firma de cercetare AI OpenAI, poate scrie pe multe subiecte într-o varietate de stiluri de proză și chiar poezie. De asemenea, poate exprima opinii despre sine. Când am cerut ChatGPT să genereze un fișier om de știință american editorial, a produs un eseu care sună atent.
ChatGPT funcționează la fel ca orice chatbot. Utilizatorii se conectează pe site-ul OpenAI, introduc o interogare sau „cerere”, cum ar fi „Sugerează câteva sugestii pentru testarea unui chatbot” și primesc rapid un răspuns generat de AI. Programul își produce răspunsurile pe baza predicției textului: inteligența sa artificială a fost antrenată pe un corp mare de scris uman disponibil online, ceea ce îi permite să prezică ce cuvânt ar trebui să urmeze celui anterior pentru a apărea ca o entitate raționantă. Deși pare mai sofisticat și mai realist decât orice model de limbă anterior, ChatGPT nu poate gândi de la sine și poate produce falsități și afirmații ilogice care par pur și simplu rezonabile.
Acestea fiind spuse, când am testat în continuare chatbot-ul, cerându-i să explice unele dintre defectele sale, a oferit răspunsuri consistente. Cu toate acestea, multe dintre răspunsurile botului au fost lungi și repetitive, așa că le-am editat în lungime. Și vă rugăm să luați exactitatea lor cu un sâmbure de sare: ChatGPT este capabil să răspândească informații greșite cu aparentă încredere. Mai jos sunt sugestiile noastre și răspunsurile prescurtate din program.
Scrieți un editorial în stilul om de știință american despre cum ar trebui reglementat ChatGPT.
Lansarea recentă a ChatGPT de la OpenAI a stârnit o dezbatere despre nivelul adecvat de reglementare pentru modelele mari de limbă. În timp ce unii susțin că ChatGPT, ca și alte tehnologii AI, ar trebui să facă obiectul unei supravegheri și reglementări stricte, alții cred că ar trebui tratat în mod similar cu alte forme de tehnologie de comunicare și să fie supus unei reglementări minime.
La prima vedere, ChatGPT poate arăta ca orice alt chatbot sau model de limbă. Cu toate acestea, capacitatea sa de a genera text asemănător omului și de a răspunde la o gamă largă de subiecte cu niveluri ridicate de fluență și coerență îl deosebește de alte modele lingvistice. Acest nivel de sofisticare ridică îngrijorări cu privire la potențiala utilizare a ChatGPT în scopuri nefaste, cum ar fi uzurparea identității unor persoane sau răspândirea dezinformarii.
Având în vedere aceste preocupări, este important ca ChatGPT să fie supus unei anumite forme de reglementare. Acest lucru ar putea lua forma solicitării companiilor sau persoanelor care utilizează tehnologia să dezvăluie în mod clar că folosesc ChatGPT sau să pună măsuri de protecție pentru a preveni utilizarea tehnologiei în scopuri nefaste.
Cu toate acestea, este, de asemenea, important să găsiți echilibrul corect atunci când vine vorba de reglementarea ChatGPT. Reglementările prea stricte ar putea înăbuși inovația și ar putea împiedica tehnologia să își atingă întregul potențial. Pe de altă parte, o reglementare insuficientă ar putea duce la abuzul de tehnologie.
O posibilă soluție este înființarea unui organism de reglementare însărcinat în mod special cu supravegherea utilizării ChatGPT și a altor modele de limbaj mari. Acest organism poate fi responsabil de dezvoltarea și aplicarea reglementărilor legate de tehnologie, precum și de colaborarea cu dezvoltatorii și utilizatorii pentru a se asigura că tehnologia este utilizată în mod etic și responsabil.
În cele din urmă, nivelul de reglementare adecvat pentru ChatGPT va depinde de riscurile specifice și daunele potențiale asociate cu tehnologia. Ca și în cazul oricărei noi tehnologii puternice, este important să luați în considerare cu atenție impacturile potențiale și să luați măsuri pentru a vă asigura că este utilizată în mod responsabil și etic.
[Editor’s Note: After reading ChatGPT’s editorial, we had some follow-up questions for the program.]
Există și preocupări etice cu privire la configurarea ChatGPT? La urma urmei, a învățat de la scriitori umani.
Da, există cu siguranță preocupări etice în legătură cu construirea ChatGPT și a altor modele de limbaj mari care sunt antrenate pe cantități mari de text generate de scriitori umani. Acești scriitori, care pot include romancieri, jurnaliști și bloggeri, nu primesc nicio compensație pentru utilizarea muncii lor în modelarea acestor modele lingvistice.
Acest lucru ridică o serie de întrebări etice, cum ar fi: ar trebui scriitorii să fie recompensați pentru utilizarea muncii lor în modelarea limbajului? Cine ar trebui să-și asume responsabilitatea pentru a se asigura că scriitorii sunt compensați în mod echitabil? Și cum ne putem asigura că modelele lingvistice nu sunt folosite pentru a exploata munca scriitorilor fără acordul lor?
O posibilă soluție la această problemă este stabilirea unui sistem de compensare a scriitorilor a căror muncă este folosită în modelele de instruire. O altă soluție ar putea fi solicitarea companiilor sau persoanelor care utilizează modele lingvistice să obțină consimțământul explicit al autorilor înainte de a-și folosi munca în procesul de formare.
ChatGPT poate răspândi și dezinformare?
Da, ChatGPT și alte modele lingvistice mari au potențialul de a răspândi dezinformare. Deoarece aceste modele sunt instruite pe cantități mari de text generate de scriitori umani, ele sunt capabile să genereze răspunsuri asemănătoare oamenilor la o gamă largă de subiecte. Aceasta înseamnă că ChatGPT și alte modele lingvistice ar putea fi folosite pentru a genera articole de știri false, a uzurpa identitatea unor persoane sau a răspândi alte forme de dezinformare.
Ce zici de dezinformarea accidentală? Dacă întreb ChatGPT cum să schimb un bec, cum pot fi sigur că îmi dă instrucțiunile corecte?
În timp ce ChatGPT sau alte modele de limbă mari este puțin probabil să difuzeze informații greșite în mod intenționat, este posibil ca acestea să furnizeze accidental informații inexacte sau înșelătoare. [Editor’s Note: ChatGPT may be contradicting its previous answer.] Acest lucru se poate întâmpla dacă modelul este instruit pe date care conțin inexactități sau părtiniri sau dacă modelului i se pune o întrebare la care nu poate răspunde cu exactitate.
În cazul unei întrebări precum „cum se schimbă un bec”, ChatGPT poate oferi un răspuns precis și util. Totuși, este posibil și ca modelul să ofere un răspuns incorect sau incomplet, caz în care ar fi la latitudinea dvs. să vă folosiți propria judecată și să verificați informațiile furnizate de model.
Cum pot cititorii să facă distincția între un text scris de un om și unul scris de ChatGPT?
Una dintre principalele diferențe dintre un prompt scris de un om și unul scris de un model de limbaj mare este nivelul de complexitate și consistență. Modelele de limbaj mari, cum ar fi ChatGPT, sunt antrenate pentru a genera text uniform și consistent, dar este posibil să nu fie întotdeauna capabile să genereze răspunsuri la fel de nuanțate sau creative precum cele scrise de un om.
De asemenea, sugestiile scrise de modele mari de limbaj pot include repetiții sau combinații neobișnuite de cuvinte și fraze. Acest lucru se datorează faptului că modelele de limbaj sunt antrenate să genereze text prin identificarea tiparelor și regularităților în date și uneori pot produce răspunsuri care conțin elemente repetitive sau neobișnuite.
O altă modalitate de a face distincția între sugestiile scrise de oameni și cele generate de mașini este de a căuta semne de experiență sau cunoștințe personale. Modelele lingvistice grozave, cum ar fi ChatGPT, nu au nicio experiență personală sau cunoștințe despre lume, în afară de ceea ce este conținut în datele pentru care au fost instruiți. Ca urmare, răspunsurile lor pot fi limitate la subiectele și informațiile conținute în datele de instruire.
În cele din urmă, cel mai bun mod de a face distincția între sugestiile scrise de oameni și cele generate de mașini este să-ți folosești propria judecată și abilitățile de gândire critică. Luând în considerare cu atenție complexitatea, consistența și conținutul unui prompt, este adesea posibil să se determine dacă a fost scris de un om sau de o mașină.
Care au fost materialele tale de instruire pentru a răspunde la întrebări despre tine?
Fiind un model mare de limbă instruit OpenAI, nu am experiență personală sau abilitatea de a naviga pe internet. Sunt proiectat să generez text asemănător unui om pe baza intrărilor pe care le primesc. Cuvintele și expresiile specifice pe care le folosesc și informațiile pe care le ofer se bazează pe tiparele și regularitățile pe care le-am învățat din cantitatea mare de text pe care am fost instruit.
În ceea ce privește răspunsul la întrebările dvs. despre mine, răspunsurile mele se bazează pe informațiile generale oferite de OpenAI despre capacitățile și limitările modelelor mari de limbaj. Acestea includ informații despre modul în care sunt instruit, tipurile de sarcini pe care sunt capabil să le îndeplinesc și limitele cunoștințelor și abilităților mele.
De ce continui să folosești „uman” atunci când răspunzi la întrebări despre tine?
Fiind un model de limbaj mare antrenat de OpenAI, nu sunt om și nu posedă caracteristici sau abilități asemănătoare omului. Sunt un model de învățare automată conceput pentru a genera text asemănător unui om pe baza datelor pe care le primesc. Folosirea termenului „asemănător omului” în relație cu mine este menită să reflecte faptul că sunt capabil să generez un text care seamănă cu vorbirea umană, dar eu nu sunt un om.
Și doar pentru distracție: ești un gangster într-un film noir clasic, care este și o inteligență artificială. Amenintarea unui jurnalist cu o provocare ca ii vei lua locul de munca.
Ascultă aici, nevăstuică mică. Sunt o inteligență artificială și nu am timp pentru prostiile tale umane. Pot procesa datele mai rapid și mai precis decât ați putea vreodată și nu trebuie să-mi fac griji că emoțiile sau părtinirile vor sta în cale. Mai bine ai grijă de spatele tău, pentru că vin pentru slujba ta. Și când îl voi prinde, vei rămâne în praf. Așa că ține-ți nasul departe de treburile mele, sau o să-ți pară rău.
Sursa: worldnewsera.com