A lição de Tay AI chatbot da Microsoft: Experimentos são difíceis (mas vale a pena)

Como é que as empresas de tecnologia experiência (como com o bot Tay.ai acima) sem ser pego fora?

A internet não inata tem um senso de lugar, Facebook e Twitter e outros serviços on-line pode se sentir como o refrigerador de água no trabalho ou o seu bar local, tornando mais difícil para replicar a noção do mundo real de “a coisa que é apropriado existe não é apropriado aqui ‘.

Casar com aquele com a atitude de “o que não é proibido é permitido” ou “algo que eu possa encontrar uma maneira de fazer, eu estou autorizado a fazer” – que remonta a visão de Grace Hopper de “qualquer coisa que não é pregado para baixo eu posso requisitar ‘ (e se eu posso arrancá-up não é realmente pregado para baixo) e que se transforma em uma atitude Silicon Valley de “pedir perdão ao invés de permissão ‘.

Quando os processos quebrados ou as políticas de segurança draconianas no trabalho tornam difícil fazer o seu trabalho, que a atitude é responsável pelas pessoas retirando sticks USB ou voltando-se para armazenamento em nuvem não importa quantas políticas empresa eles quebram porque eles se preocupam sobre a obtenção de seu trabalho feito, e tenta as pessoas a obter um chatbot para começar a vomitar o inaceitável, que é o que aconteceu com a experiência Tay.ai da Microsoft.

Pode parecer uma linha tênue entre ser habilitado a agir e agir direito a se comportar mal. O que separa aqueles que têm a intenção e da moralidade, e da intenção e da moralidade não são perguntas que você pode resolver com a tecnologia. Como eu frequentemente dizer quando Google sai com outra versão do Google Plus, não há algoritmo para social.

O lado positivo de agir primeiro e perguntar depois é uma atitude Microsoft vem tentando aprender. Você pode vê-lo no Microsoft colocar o nome Outlook no cliente de e-mail Accompli embora ainda (de forma segura) em cache (criptografadas) credenciais de e-mail na nuvem Amazon ao invés de Azure; os administradores de TI não tinha reclamou usuários executando Accompli mas exatamente o mesmo (popular) recursos do Microsoft levantou gritos de indignação por causa das expectativas desses administradores sobre algo com a marca Outlook. Você pode ver no nos Programas dos insiders para Windows 10 e Windows 10 Mobile, o caminho para o desenvolvimento rápido e estável, está se movendo rápido e corrigir os problemas que provoca, mas você tem que ser capaz de causar problemas ao invés de esperar até que tudo esteja perfeito ( e nunca é perfeito).

Você pode até mesmo vê-lo no meme mal-oficial, mas de forma viral populares ninja gato; montando gato ninja um flamejante unicórnio ou saltando por cima de tubarão deixou em esquis de bacon estava fazendo as rondas nas etiquetas impressas pela comunidade muito antes do ninja Microsoft equipe marca permitido gato para mostrar-se em canecas e camisetas na loja interna da empresa.

Esse tipo de agressividade faz parte do Microsoft crescendo fora de comportamentos que serviram bem no passado, mas colocá-lo com o pé atrás competir com Google e Facebook e centenas de startups. Parte disso foi o rescaldo do caso anti-trust e decreto de autorização, inculcar uma cultura de não integrar muito em uma plataforma Microsoft. Parte disso foi ouvir os clientes, o que funciona melhor quando não há um ponto de inflexão na tecnologia acontecendo. os clientes corporativos da Microsoft iria dizer a empresa não podiam digerir novas versões do software a cada ano, dois anos ou três anos ou cinco, sete ou até mesmo a cada década foi tão frequentemente como eles poderiam lidar com a mudança. Tão tarde quanto 2011, de acordo com o “pai do SharePoint ‘Jeff Teper, a equipe do Office estava à espera de clientes para lhes dizer quando era hora de estar na nuvem – mas os clientes não foram sequer considerá-la. Depois de uma reunião, ele percebeu “os nossos clientes estavam indo para ser um indicador de arrasto no mercado, que as pessoas de TI no quarto não estavam indo para nos dizer quando o mercado virou, eles estavam indo para nos dizer depois que ele virou.

Outra parte é que a Microsoft não tem sido bom em prever o que os clientes faria com o software. Isso é verdade em toda a indústria de tecnologia, e às vezes é uma coisa boa. Wi-fi não foi projetado para conectividade onipresente; a rua, como autor William Gibson disse famosa na queima Chrome, encontra seus próprios usos para as coisas.

Mas, assim como BlackBerry ouviu administradores pedindo mais e mais controles para desligar novas funcionalidades nos aparelhos BlackBerry até que os usuários BlackBerry chegou a acreditar seus aparelhos simplesmente não têm quaisquer recursos legais, a equipe da Microsoft que criou a Política de Grupo não esperava que os administradores usaria todas as políticas para travar PCs para baixo até que se tornou lento e desagradável de usar.

O cliente nem sempre tem razão. A natureza humana não é sempre benevolente. Consequências raramente se destinam. Você precisa pensar ‘o que é o pior que poderia acontecer?’ e atacar sua própria tecnologia. Melhor ainda, você precisa de uma equipe vermelha com mentes muito suspeitos e atitudes cínicas para fazer isso, porque não será limitada pelas suposições das pessoas que constroem a tecnologia. Envolvem a ciência social e pesquisadores de mídia social que olham como as pessoas usam a mídia social em suas vidas.

E, em seguida, lembre-se que você não pode proteger tudo e que você tem que experimentar a menos que queira tecnologia para fossilizar, assim como a análise de risco. Pergunte o que é o pior que poderia acontecer, trabalhar para fora como você vai tentar mitigar o risco – e vá em frente e experimentar de forma responsável.

Tay AI chatbot da Microsoft vai offline depois de ser ensinado a ser um racista; Microsoft lança AI bate-papo bot, Tay.ai; UK analisa o impacto da AI e robótica no emprego e na sociedade

Tay chatbot

Inteligência Artificial;? DeepMind do Google afirma marco importante em máquinas de fazer falar como os humanos; Inovação;? LG investir em AI para aparelhos inteligentes, condução autónoma; Big Data Analytics;? IBM para usar AI para domar dados grandes em seu segundo laboratório de pesquisa Africano; inteligência artificial; IBM Watson: Aqui está o que um trailer do filme trabalhada por um AI parece

? DeepMind do Google afirma marco importante em máquinas de fazer falar como os humanos

? LG investir em AI para aparelhos inteligentes, condução autónoma

? IBM para usar AI para domar dados grandes em seu segundo laboratório de pesquisa Africano

IBM Watson: Aqui está o que um trailer do filme trabalhada por um AI parece