Twitter ha bisogno di un blotter della polizia pubblica

La politica generale di Twitter è quella di non commentare le azioni intraprese nei confronti di un account specifico considerato in violazione dei suoi Termini di servizio. A volte, in casi di alto profilo o controversi, sono costretti a presentare chiarimenti, come i tweet di @Safety di ieri relativi alla sospensione di Rose McGowan.

Oggi esiste un divario di fiducia tra l’interesse del prof e di Twitter a ridurre gli abusi sulla piattaforma e l’esperienza quotidiana della comunità nell’utilizzo del prodotto. Ci sono molti post sul blog sul motivo per cui Twitter ha avuto difficoltà in questo settore e molti suggerimenti su come rivedere il loro prodotto e le loro politiche. In effetti, due di loro sono miei: My House, Your House e Don’t Let Abusers @ Name, informati dalla mia lunga esperienza sulla piattaforma Twitter come utente e dal mio periodo di leadership di prodotto su YouTube. Ma questo suggerimento successivo in realtà risale più indietro nella mia carriera a un ambiente creativo sociale che per certi versi era più difficile da gestire di Twitter … .. il mondo virtuale di Second Life.

Ho avuto il piacere di lavorare presso Linden Lab, la società dietro Second Life, durante i suoi primi tre anni circa di esistenza. Eravamo un piccolo team – composto da 30 persone durante il mio mandato – e ho avuto la possibilità di lavorare sul prodotto, sul marketing e su qualsiasi altra questione fosse urgente per l’avvio. Consideravamo il prodotto una piattaforma, non un gioco, e l’immensa libertà dell’ambiente virtuale significava che sarebbe stato impossibile per noi applicare programmaticamente tutti gli standard della nostra comunità; avremmo dovuto fare affidamento anche sui rapporti degli utenti. E il team voleva assicurarsi che il mondo si sentisse aperto, guidato da norme e preferenze personali piuttosto che un luogo in cui abbiamo applicato uno standard rigoroso di interazioni.

Questo ci ha lasciato una sfida: come segnalare agli utenti che ci tenevamo ai Termini di servizio senza creare la sensazione di uno stato di polizia, che limitava la creatività e ci rendeva gli unici responsabili (non in senso legale, ma ha rimosso la sensazione che Second Life avrebbe avuto successo solo se gli utenti si fossero assunti la responsabilità anche delle loro azioni)? Come fornire un ciclo di feedback proteggendo al tempo stesso l’identità delle persone sulla piattaforma? Dato che stavamo creando un mondo virtuale, abbiamo finito per prendere in prestito un costrutto da quello reale: un crimine.

Fino a Second Life, la stragrande maggioranza delle comunità online, in particolare i giochi online multigiocatore di massa, non voleva discutere di come gestivano il dolore e il comportamento scorretto. Temevano che desse fama (un incentivo!) Ai dolenti, ovvero una mentalità da successo in cui vorresti dimostrare di essere abbastanza distruttivo da fare qualcosa che i manager della comunità dovevano affrontare pubblicamente. Un sottoprodotto di questo silenzio era che eliminava l’importante circuito di feedback dei proprietari di una piattaforma che segnalavano di essere interessati, e quindi coinvolgevano il pubblico a mantenere le norme della piattaforma. Fiducia reciproca.

Per combattere questo in Second Life, ho raggiunto i miei giorni di scuola di specializzazione a Stanford e mi sono divertito con la carta assorbente della polizia del giornale locale. L’attrazione, come puoi vedere di seguito, era inizialmente perché Palo Alto era generalmente così bucolico che minuscole piccole seccature facevano i rapporti sui crimini. Ma anche questo ha contribuito a sostenere il senso di pace e tranquillità. Il quartiere era così sicuro che “bambini fastidiosi” erano un rapporto indagabile.

Quindi abbiamo creato il riepilogo dei rapporti sugli incidenti di Second Life in cui riassumevamo il numero di violazioni sul servizio per un dato periodo di tempo (durante i primi anni abbiamo sperimentato anche annotando su quale server si erano verificate, una sorta di “quartiere” porzione della carta assorbente Palo Alto). Ecco un’istantanea che ho trovato online che presenta i tipi di infrazioni sommati in un periodo di tempo sconosciuto.

Come molte delle nostre decisioni di progettazione, questa funzione è stata [pats self on back] piuttosto innovativa e so che ha influenzato altri progettisti di giochi / comunità lungo la strada. Ma torniamo a Twitter …

Sono convinto che Twitter dovrebbe pubblicare un “This Quarter in Trust & amp; Sicurezza ”quattro volte all’anno. Dovrebbe riassumere alcune delle funzionalità e dei miglioramenti che hanno apportato per mantenere la piattaforma produttiva. Dovrebbe parlare di ciò su cui stanno lavorando per il prossimo trimestre. E dovrebbe contenere una versione di Twitter Police Blotter, che ci consente di conoscere i numeri aggregati di bot disattivati, account avvisati, account bloccati e così via, forse anche con qualche categorizzazione per causa. Dobbiamo sapere che la nostra segnalazione dei tweet è importante. Dobbiamo sapere che Twitter prende questo più seriamente di “pensieri e preghiere”. E dobbiamo incontrarci a metà su questo: rispetto il diritto di Twitter di non voler sempre commentare le singole situazioni e che possono esserci aree grigie situazionali che richiedono l’aggiornamento delle politiche o l’annullamento delle decisioni. Ma condividere più dati pubblicamente sarebbe un buon passo per rendere la scatola nera un po ‘più trasparente.