Estudo da Apple usa inteligência artificial em iPhones para a detecção de humor
Novas informações sobre um estudo realizado pela Universidade da Califórnia em Los Angeles (UCLA) em parceria com a Apple mostram que a fabricante do iPhone está usando reconhecimento facial, padrões de fala e outras formas de monitoramento de comportamento passivo para detectar a depressão.
Segundo matéria publicada pelo Yahoo, um relatório do The Wall Street Journal levanta preocupações sobre a investida da empresa em Inteligência Artificial Emocional, que alguns cientistas dizem que se baseia em suposições falhas.
O estudo da Apple sobre depressão foi anunciado pela primeira vez em agosto de 2020. Informações anteriores sugeriam que a empresa estava usando apenas alguns dados de saúde, como frequência cardíaca, sono e forma com que o usuário interage com o aparelho para entender sua saúde mental. Mas o relatório afirma que a pesquisa irá monitorar muito mais, como indicadores de sinais vitais das pessoas, movimentos, fala, sono, hábitos de digitação – incluindo a frequência dos erros –, em um esforço para detectar estresse, depressão e ansiedade.
De acordo com o relatório, a empresa investiu fortemente no monitoramento de exercícios físicos, sono, audição, menstruação, dieta e outros indicadores da saúde diária de uma pessoa. Ela ainda compila estes dados e pode enviar relatórios ao seu médico.
As informações obtidas no estudo da depressão ajudam a empresa a dar um passo adiante – supostamente identificar seu estado emocional. Por isso, há um crescente número de aplicativos que avaliam como você está se sentindo, utilizando o que é chamado de I.A emocional ou computação afetiva. O objetivo é usar vários critérios, que incluem expressões faciais, para entender as emoções de uma pessoa, muitas vezes para fins comerciais. A computação afetiva movimentou US$ 20 bilhões em 2019, de acordo com a Grand View Research.
Mas essa tecnologia tem enfrentado críticas, não apenas por coletar grandes quantidades de dados confidenciais, mas também porque não é considerada boa. Cientistas já falaram sobre os problemas da I.A emocional, afirmando que ela se baseia em uma ideia falha.
Hayley Tsukayama, ativista legislativa da Electronic Frontier Foundation, diz que é importante que as empresas sejam transparentes em relação ao que sua tecnologia é capaz ou não de fazer. No caso de detectar depressão, a empresa deve ir além, não apenas sinalizar aos usuários que a avaliação não constitui um diagnóstico. Precisam também levar em consideração a forma como um leigo pode interpretar o que o aplicativo diz.
“Ele considera que pode dispensar uma visita ao médico? Ele avalia que isso é preocupante o suficiente a ponto de buscar tratamento? É exatamente esse o perigo”, explica Tsukayama. “Precisamos ter certeza de que a utilização de um algoritmo como este para tomada de decisões seja transparente, auditável e que as pessoas possam contestar essas decisões facilmente”, diz.
Fonte: Yahoo!
Comentários estão fechados.