A gigante da tecnologia diz que está trabalhando para corrigir um problema que, segundo ela, vem do fato de seu serviço de ditado não conseguir distinguir entre palavras que têm um "r" nelas.
Vídeos postados online mostram pessoas falando a palavra "racista" na ferramenta Dictation. Às vezes, ela é transcrita corretamente, mas em outras ocasiões ela se transforma em "Trump", antes de ser rapidamente corrigida para a palavra certa.
Um porta-voz da Apple disse: "Estamos cientes de um problema com o modelo de reconhecimento de fala que alimenta o Dictation e estamos lançando uma correção hoje."
No entanto, um especialista em reconhecimento de fala argumentou que a explicação da Apple "simplesmente não é plausível".
Peter Bell, professor de tecnologia da fala na Universidade de Edimburgo, afirma que é mais provável que o software subjacente usado pela ferramenta tenha sido alterado.
O professor Bell argumenta que a explicação da Apple sobre a sobreposição fonética não faz sentido, pois as palavras "racista" e "Trump" não são semelhantes o suficiente para confundir um sistema de inteligência artificial (IA).
Ele sugere que o problema da Apple provavelmente não é um erro genuíno com os dados, já que seu modelo de língua inglesa seria treinado em centenas de milhares de horas de fala e, portanto, deveria ter um alto nível de precisão.
O professor Bell disse à BBC News: "Provavelmente indica alguém que tem acesso a um processo."
Um ex-funcionário da Apple que trabalhou na assistente de IA Siri suspeita que uma brincadeira foi feita.
Eles disseram ao New York Times: "Isso parece uma brincadeira séria".
Comentários
Postar um comentário