Il CEO di una casa editrice di giochi indie propone una rilevazione dell’esaurimento professionale basata su AI degna di Black Mirror, affermando che è tutto ipotetico in mezzo alle critiche.

The CEO of an indie game publishing house proposes an AI-based burnout detection worthy of Black Mirror, amidst criticism.

Alex Nichiporchik, CEO della casa editrice Hello Neighbor tinyBuild, ha recentemente proposto il potenziale utilizzo di modelli di intelligenza artificiale per aiutare a individuare “membri problematici del team” e identificare dipendenti a rischio di esaurimento, e sebbene l’obiettivo fosse presumibilmente quello di aiutare i dipendenti, a tutti è piaciuto tantissimo questo.

WhyNow Gaming ha riportato una presentazione tenuta da Nichiporchik alla conferenza Develop: Brighton il 12 luglio, dal titolo “IA nel game development: il mio lavoro è sicuro?”. La sinossi della presentazione afferma che la presentazione avrebbe “approfondito come la casa editrice ha adottato l’IA nelle pratiche quotidiane per aumentare in modo esponenziale l’efficienza. Da un aumento del 10x nell’efficienza nella produzione di immagini chiave all’utilizzo dell’IA per raccogliere dati e verificare l’opinione della comunità, siamo nella rivoluzione industriale dell’era digitale. Chi lo abbraccia ha già un vantaggio”.

Oltre a come l’IA può essere utilizzata come strumento per discipline del game dev come l’arte e il codice, la sessione nota che “ci sarà una riallocazione delle risorse umane che cambierà e ottimizzerà il modo di lavorare delle squadre”. È principalmente questo elemento che ha scatenato il dibattito, con una discussione incentrata sull’idea di utilizzare l’IA per individuare singoli dipendenti anziché, non so, controllare come stanno.

(Fonte immagine: tinyBuild)

Le diapositive della presentazione di Nichiporchik propongono un’analisi “Io, Me” che misura quante volte i dipendenti si riferiscono a se stessi come individui invece che come parte del team (usando plurali come “noi”, ecc.). Ciò potrebbe essere fatto, ad esempio, alimentando conversazioni di app di messaggistica come Slack o altre, come trascrizioni automatiche di chiamate Google o Zoom, attraverso l’IA come ChatGPT dopo averle tagliate di eventuali dettagli identificativi. Si dice che Nichiporchik abbia scherzato sul depositare il copyright di questo metodo durante il suo intervento, “perché a mia conoscenza, nessuno l’ha inventato”.

Ha anche discusso della ricerca di dipendenti che occupano un “tempo sproporzionato nelle riunioni a parlare rispetto ai colleghi” – persone che ha definito “vampiri del tempo”, che è coincidentalmente lo stesso termine che uso per i videogiochi con molto contenuto. Infine, la presentazione ha incluso un feedback a 360 gradi dalle risorse umane, che coinvolgerebbe chiedere ai dipendenti di elencare i colleghi con cui hanno avuto interazioni positive, e poi indagare sulle persone che non compaiono in molti o in nessuno di questi elenchi.

Unendo questi dati, riassume la presentazione, “potresti essere in grado di prevenire un esaurimento – sia per la persona che per il suo team”. Nichiporchik ha anche aggiunto che “non devi mai far sentire ai membri del tuo team che stanno venendo spiati”, e la discrepanza tra questo avvertimento e i metodi proposti non è stata ben accolta dai game developer.

(Fonte immagine: tinyBuild)

Se pensi che questo suoni come un incubo distopico direttamente da Black Mirror, potresti essere perplesso nell’apprendere che la presentazione ha persino affermato: “Benvenuti a Black Mirror”. Anche l’affermazione che “le persone tossiche sono di solito quelle che stanno per esaurirsi”, con una diapositiva della presentazione che equipara l’esaurimento alla tossicità, ha suscitato qualche critica. Per dirlo in modo lieve, alle persone non piace. Per dirlo in modo meno lieve:

“Solo un pensiero, forse ci sono modi meno distopici per capire se i tuoi dipendenti sono fottutamente infelici”, ha detto Meghna Jayanth, narratrice di Thirsty Suitors.

“Qualcuno esausto non è ‘di solito tossico’. Le persone possono certamente essere esauste e tossiche, ma implicare che l’esaurimento è spesso un fallimento del carattere è bizzarro”, ha aggiunto Dora Breckinridge, direttrice di Armor Games.

“Se devi costantemente sottolineare di sapere quanto distopico e spaventoso sia il tuo monitoraggio dei dipendenti, potresti essere tu il problema, amico mio”, dice Mitch Dyer, scrittore di WB Games.

Dan Ahern, responsabile QA di Radical Forge, sostiene che “non hai bisogno di IA per trovare ‘dipendenti problematici’ – puoi trovarli semplicemente guardando chi sta cercando di fare cose orrende, come questa merda da livello tormento-nexus. Davvero deludente che Develop permetta che un intervento anti-sviluppatori di giochi venga ospitato lì”.

(Fonte immagine: tinyBuild)

Questa mattina, 14 luglio, Nichiporchik si è rivolto a Twitter per criticare la storia originale, che descrive come proveniente da “un posto di odio”, per essere stata “tratta fuori contesto” e per aver “convenientemente” omesso di mostrare alcune slide chiave. WhyNow Gaming ha anche aggiornato la sua storia con una dichiarazione del CEO che chiarisce che:

“La parte HR della mia presentazione era ipotetica, da qui il riferimento a Black Mirror. Avrei potuto renderlo più chiaro per quando viene visto fuori contesto. Non monitoriamo i dipendenti o utilizziamo l’IA per identificare quelli problematici. La presentazione esplorava come gli strumenti di intelligenza artificiale possono essere utilizzati, e alcuni entrano in territorio inquietante.”

“Non si tratta di identificare dipendenti problematici, si tratta di fornire strumenti HR per identificare e prevenire il burnout delle persone”, ha ribadito Nichiporchik su Twitter. 

“Avrei potuto sottolinearlo molto di più: non utilizziamo strumenti di intelligenza artificiale per l’HR, questa parte della presentazione era ipotetica”, ha detto in una risposta. 

Un utente di Twitter ha detto che “odia l’idea di avere i suoi messaggi di Slack raccolti e alimentati in qualsiasi tipo di programma”, e per la confusione di alcuni, Nichiporchik ha risposto “100% d’accordo” senza ulteriori spiegazioni. 

Quando gli è stato chiesto se i dipendenti di tinyBuild avessero dato il permesso di analizzare i loro messaggi in questo modo, Nichiporchik ha detto che nessuno aveva bisogno di dare il permesso perché “non venivano alimentati da nessuna parte” – ancora una volta, suppongo, perché tutto ciò era “ipotetico”. 

“L’etica di tali processi è sicuramente discutibile, e questa domanda è stata posta durante la sessione di domande e risposte dopo la presentazione”, ha detto in un altro tweet. “Ecco perché dico ‘territorio molto Black Mirror’. Questa parte era IPOTETICA. Cosa si potrebbe fare per prevenire il burnout”. 

Ipotetico o meno, l’idea stessa ha infastidito molte persone, soprattutto presentata in una conferenza del genere e da un dirigente in cima a uno studio indie di dimensioni considerevoli. Mi sono rivolto direttamente a tinyBuild per un commento aggiornato sulla proposta, sulla sua posizione riguardo a questo tipo di monitoraggio e intervento dei dipendenti guidati dall’IA, e se sta considerando di implementare un tale sistema. 

Recentemente, un doppiatore di Persona 5 è stato cacciato da Twitter dopo aver criticato un video che clonava la sua voce con l’IA, solo pochi giorni dopo che le voci dell’IA in mod NSFW di Skyrim hanno scatenato una discussione separata sulla stessa tecnologia di clonazione.