Riot Games e Ubisoft se unem em projeto de pesquisa de IA — usando registros de bate-papo de jogadores como dados de treinamento

A Ubisoft e a Riot estão colaborando em um projeto de pesquisa antitoxicidade, que se concentrará na coleta de logs de bate-papo no jogo como dados de treinamento para algoritmos de IA. Ambas as empresas devem divulgar suas descobertas a partir desses dados no próximo verão, momento em que as etapas futuras serão decididas.
Falando comigo por uma chamada de Zoom, Wesley Kerr, diretor de pesquisa de tecnologia da Riot, e Yves Jacquier, diretor executivo da Ubisoft La Forge, compartilharam seus objetivos e esperanças de longo prazo para o projeto. Aclamando-o como o primeiro de seu tipo como uma colaboração de pesquisa aberta no campo da IA entre duas empresas de jogos, eles esperam que os aprendizados publicados no próximo ano sejam o primeiro passo no uso efetivo da IA pela indústria como uma ferramenta para reduzir a toxicidade. .
Segundo Jacquier, o projeto tem três objetivos principais. Primeiro, para criar uma rede de conjuntos de dados compartilhados, preenchida com dados de jogadores totalmente anônimos. A segunda, para criar um algoritmo de IA que possa trabalhar com esses dados. Por fim, para que essa parceria funcione como “protótipo” para futuras iniciativas da indústria contra a toxicidade, incentivando a concorrência e novos avanços no campo.
Faz sentido que a Riot e a Ubisoft sejam duas empresas investidas na solução desse problema, se seus populares títulos multiplayer forem considerados. Rainbow Six: Siege fica muito sujo muito rápido assim que a cooperação em toda a equipe é atingida, e os gêmeos problemáticos da Riot, League of Legends e Valorant, ficam encharcados de lodo tóxico.
Tanto Kerr quanto Jacquier enfatizaram ao longo da entrevista que o anonimato do jogador e o cumprimento das leis regionais e do GDPR estavam entre suas principais prioridades. Quando perguntado se os dados do jogador eram compartilhados entre empresas, Kerr enfatizou que as informações da sua conta do League of Legends não seriam enviadas para outras empresas sem o consentimento do jogador. Em vez disso, os logs de bate-papo seriam desprovidos de informações de identificação antes que qualquer algoritmo pudesse pegá-los e procurá-los.
O problema mais imediato que vem à mente quando você ouve sobre a IA reduzir a toxicidade é a perseverança dos jogadores, determinados a mostrar a você o quão lixo você é. A invenção de novas palavras, um léxico de conversa fiada que se transforma, está em constante mudança nas comunidades online. Como uma IA poderia responder a isso? O truque, segundo Jacquier, é não confiar no dicionário e nas fontes de dados estáticos. Assim, o valor em usar os registros de bate-papo do jogador atual, que refletem a meta de toxicidade atual.
Depois, há a outra preocupação com falhas de tiro, especialmente em um meio em que brincadeiras amigáveis entre amigos, companheiros de equipe aleatórios e até mesmo jogadores inimigos podem fazer parte da experiência. Se estou jogando na rota superior em League of Legends e escrevo “nice CS bud” para o meu oponente da pista 0/3, isso é só uma brincadeira, certo? Se eles fizerem o mesmo comigo, isso é revigorante. Isso me faz querer ganhar mais e melhora a experiência. Como uma IA pode determinar a diferença entre toxicidade prejudicial genuína e brincadeira?
“É muito difícil” afirma Jaquere. “Entender o contexto de uma discussão é uma das partes mais difíceis. Por exemplo, se um jogador ameaçar outro jogador. Em Rainbow Six, se um jogador disser "ei, vou acabar com você", isso pode ser parte da fantasia. Considerando que em outros contextos pode ter um significado muito diferente.” Kerr seguiu com alguns dos benefícios que os videogames têm a esse respeito, graças a outros fatores.
De acordo com ele, levar em consideração com quem você faz fila é um exemplo de fator que pode ajudar a IA a determinar a toxicidade real de piadas divertidas. Em teoria, você não seria atropelado por vira-latas se chamasse seu melhor amigo de merda em um lobby da Liga.
Quanto ao futuro, todos os olhos estão voltados para os resultados publicados no próximo ano. Por enquanto, está focado apenas em registros de bate-papo, mas com a Riot Games investigando o monitoramento de comunicações de voz no Valorant, Kerr se recusou a retirá-lo da mesa como uma área futura de pesquisa se a colaboração continuar depois de 2023. Por enquanto, é uma área de pesquisa futura. é um projeto. Um primeiro passo de uma longa jornada ambas as empresas aparecem dedicadas a viajar. Embora Kerr e Jacquier tenham esperança de que o projeto de pesquisa produza descobertas importantes e inspire outras empresas a seguir o exemplo, eles não acreditam que a IA seja o princípio e o fim de toda a moderação de toxicidade.
“A IA é uma ferramenta, mas não é uma bala de prata. Existem muitas maneiras de garantir a segurança do jogador, então a ideia é entender melhor como essa ferramenta pode ser usada da melhor forma para lidar com conteúdo nocivo."
Em última análise, esta pesquisa é apenas um componente em um esforço mais amplo, mas nas mentes de Jacquier e Kerr, espera-se que seja crítico no futuro. Só o tempo dirá se eles estão certos, se eles podem cumprir sua promessa de que a privacidade dos jogadores será mantida e se a IA realmente é a próxima fronteira na batalha contra a toxicidade.
Nenhum comentário