Bluesky, noul lookalike Twitter numai pe invitații, trebuia să ofere un răgaz atât de necesar față de un ecosistem altfel toxic al rețelelor sociale. Dar când am intrat în Bluesky la începutul lunii mai, m-am întrebat dacă petrecerea sa terminat. Pentru cei neinițiați, Bluesky a început în 2019 ca un experiment de rețele sociale descentralizate pe Twitter și s-a transformat în propria sa companie anul trecut, cu fostul CEO Twitter. Jack Dorsey ca membru al consiliului. (Prin „descentralizat”, compania înseamnă construirea unui protocol open source pentru construirea de aplicații sociale, Bluesky Social este una dintre ele.) În ultimele câteva luni, după Elon MuskPreluarea Twitter de către: Site-ul a devenit un loc de joacă pentru cei din mass-media, politică și tehnologie considerați capabili să introducă o nouă platformă pentru mase. Prize ca Cablat ȘI Piatra de rulare a evidențiat aplicația ca o alternativă posibilă frumoasă la Twitter. A început ca un mediu jucăuș, mușcător, cu formă liberă, care semăna foarte mult cu Twitter, dar în care postările erau „skeet” și variau de la imagini ciudate cu cerul albastru la nuduri.
Dar un schimb între CEO-ul Bluesky Jay Graber iar utilizatorii Bluesky au sugerat că aplicația încă se confruntă cu întrebări dificile de moderare a conținutului care au tulburat alte platforme de social media. A început când mai mulți utilizatori au solicitat eliminarea unui utilizator cu mânerul @commie.cafe, care ar fi numit femei trans moarte, le-a hărțuit și le-a doxat și s-a implicat într-un alt comportament dăunător. Ca răspuns la îngrijorările utilizatorilor, Graber a scris: „Observăm și vom acționa asupra comportamentului. Blocurile împiedică interacțiunea. Acest răspuns i-a determinat pe mulți să se întrebe de ce compania nu a luat în serios preocupările utilizatorilor săi și nu a luat măsuri proactiv împotriva utilizatorilor acuzați de comportament rău intenționat pe alte platforme.
„Câți oameni trebuie să-ți spună direct că o persoană periculoasă și toxică este prezentă înainte să fii dispus să nu mai cauti și să acționezi?” a scris un utilizator ca răspuns la Graber.
„Mulți oameni sunt speriați/îngrijorați aici, mai ales după ani în care Twitter nu a gestionat corect aceste lucruri. Nu fi Twitter, fii mai bun”, i-a răspuns un alt utilizator lui Graber. Utilizatorul acuzat de acte transfobe pare să nu mai fie pe platformă. Bluesky nu a răspuns la o solicitare de comentarii despre incident și nici la o întrebare despre dacă compania a luat vreo măsură împotriva utilizatorului.
Acest lucru nu numai că a oferit o privire asupra abordării Bluesky de moderare a conținutului, dar a pus sub semnul întrebării dacă compania va lua măsuri pentru a-și păstra vibrațiile bune. Echipa sa de nouă persoane construiește o platformă cu o listă de așteptare de 1,9 milioane de adrese de e-mail, aparținând celor care doresc să se alăture celor peste 72.000 de utilizatori în versiunea beta numai pe invitație a aplicației. Dar, pe măsură ce utilizatorii apelează la aplicație pentru potențialul său ca înlocuitor pentru Twitter, unii primitori se întreabă dacă platforma poate continua să fie o ușurare binevenită de hărțuire, discurs instigator la ură și conținut grafic. Sau va face în cele din urmă greșeli similare cu cele ale predecesorilor săi?
Compania tace cu privire la planurile sale de a aborda aceste probleme în viitor, în afară de a posta câteva detalii pe pagina sa de Întrebări frecvente. Am luat legătura cu purtătorul de cuvânt al companiei cu o listă detaliată de întrebări referitoare la dacă compania va acorda prioritate utilizatorilor cu medii marginalizate, gradul în care își va aplica politicile de moderare a conținutului și ce investiții ar face în moderarea conținutului . Dar un purtător de cuvânt al companiei nu va acorda interviuri, pentru că toată lumea este „cu capul în jos la serviciu”.
Pe site-ul său, Bluesky observă că intenționează să folosească filtrarea automată, acțiunile de administrare manuale și etichetarea comunității pentru a modera platforma. Pe lângă filtrarea de bază pentru conținutul inacceptabil, compania dorește să permită utilizatorilor și dezvoltatorilor să adauge filtre suplimentare și alte controale de moderare. Într-o altă postare, Graber notează că dezvoltatorii care își execută propriile servere vor putea să își stabilească propriile politici de moderare a conținutului la nivel de server și de comunitate, „dar am nevoie să fie suficient de liniștit pentru a construi restul sistemului pentru a oferi oamenilor mai mult. controale directe. Compania a refuzat să spună dacă intenționează să angajeze mai mulți moderatori umani și să implementeze măsuri suplimentare pentru a proteja utilizatorii care fac parte din comunitățile marginalizate, mai ales pe măsură ce baza sa de utilizatori crește.
Twitter, Instagram, Facebook și alte platforme importante de social media au făcut greșeala de a subestima măsura în care retorica online periculoasă ar putea duce la daune offline, Yoel Roth, Fostul șef al departamentului de încredere și securitate de la Twitter și cercetător în domeniul politicilor tehnologice de la Universitatea din California, Berkeley, a declarat. Și deși nu este posibil să se adopte o abordare total localizată a moderarii conținutului pe măsură ce se extinde în străinătate, Roth a spus că speră că următoarea generație de platforme sociale va lua în serios ceea ce a funcționat și nu a funcționat cu predecesorii lor. „Una dintre promisiunile platformelor federate precum Bluesky este că le poate oferi oamenilor mai multe opțiuni cu privire la ceea ce merge și ce nu”, a spus Roth, referindu-se la ideea lui Bluesky de a oferi creatorilor independență față de platformă în sine. „Dar tot trebuie să tragi acea linie undeva, a ceea ce nu merge nicăieri, iar acesta este câmpul de luptă pentru moderarea conținutului.”
În ceea ce privește AI care ajută la unele funcții de moderare a conținutului, Miro Dittrich, un cercetător senior la Centrul de Monitorizare, Analiză și Strategie, a spus că nu se poate avea încredere că tehnologia funcționează la scară singură, așa cum a fost valabil și pentru alte platforme sociale. Roth a fost de acord: dacă Bluesky folosește AI ca parte a moderarii conținutului său, companiile ar trebui să testeze aceste instrumente înainte de a-și construi întreaga strategie de moderare în jurul lor, a spus el. Permiterea dezvoltatorilor să-și creeze propriile interfețe pentru a stabili limite de conținut ar putea avea, de asemenea, consecințe nedorite. De exemplu, dacă un utilizator doxxă pe cineva sau postează imagini sexuale neconsensuale, acele postări pot fi de-indexate, astfel încât utilizatorii Bluesky să nu le poată vizualiza, dar imaginile pot fi în continuare disponibile pe serverul personal al cuiva și pot ajunge pe Internet; nu este sigur că este o soluție suficientă, a spus el Sol Messing, un profesor asociat de cercetare la Universitatea din New York și fost șef al științei datelor de descoperire la Twitter.
Sursa: www.vanityfair.com