
Crédito: domínio público UNSPLASH/CC0
Pesquisadores da Universidade Edith Cowan (ECU) estão ajudando as máquinas a se tornarem mais conscientes emocionalmente usando um novo método que lhes permite reconhecer melhor as expressões faciais humanas.
“Como mais sistemas digitais, de assistentes virtuais a aplicativos de bem-estar, interagem com as pessoas, está se tornando cada vez mais importante que elas entendam como nos sentimos”, disse a ECU Ph.D. estudante Sr. Sharjeel Tahir.
Em vez de treinar sistemas para interpretar emoções usando imagens únicas, a equipe liderada pelo professor sênior da ECU e especialista em Inteligência Artificial (AI), Dr. Syed Afaq Shah, explorou uma abordagem mais humana: mostrando um grupo de expressões faciais relacionadas juntos, permitindo que a máquina “consulte” um contexto emocional mais amplo.
“Assim como não julgamos como alguém se sente de uma só vez, nosso método usa várias expressões para fazer previsões mais informadas”, explicou Tahir. “É uma maneira mais confiável de ajudar as máquinas a entender as emoções – mesmo quando os rostos são vistos de diferentes ângulos ou sob iluminação diferente”.
Embora essa pesquisa não envolva robôs físicos, as descobertas podem influenciar como os futuros sistemas emocionalmente conscientes são desenvolvidos – como aqueles usados em apoio à saúde mental, atendimento ao cliente ou educação interativa.
“Estamos depositando as bases para máquinas que não vêem apenas rostos, mas entendem”, disse Tahir.
Ph.D. estudante Sr. Nima Mirnateghi, co-autor do artigo publicado em 2024 Conferência Internacional sobre Computação de Imagem Digital: Técnicas e Aplicações (DICTA)observou que esse método proposto fornece pistas visuais ricas que aprimoram a capacidade do modelo de IA de reconhecer emoções, mantendo a eficiência computacional e alcançando uma taxa de precisão significativamente mais alta.
“Ao expor o modelo a diversos recursos dentro de um conjunto estruturado, descobrimos que ele aprende padrões existentes com muito mais eficiência, refinando suas capacidades de reconhecimento emocional”, acrescentou.
Sob a supervisão do Dr. Shah, Tahir está agora trabalhando na geração de empatia artificial em agentes artificiais, permitindo que eles respondam de acordo com as emoções humanas.
“Há uma necessidade significativa de apoio emocional nos dias de hoje, e essa lacuna pode ser preenchida por máquinas ou robôs emocionalmente conscientes ou emocionalmente inteligentes”, disse ele.
Mirnateghi disse que a pesquisa não apenas ultrapassou os limites do reconhecimento de emoções na IA, mas também provocou uma exploração mais profunda para os processos de tomada de decisão subjacentes dos modelos de IA.
“Nosso grupo de pesquisa agora está focado na IA explicável nos modelos de idiomas, descobrindo os intrincados mecanismos que ditam como os agentes artificiais interpretam padrões de reconhecimento.
“Ao tornar esses processos mais transparentes, pretendemos criar sistemas de IA inerentemente compreensíveis – fundindo a lacuna entre computação avançada e intuição humana. Por exemplo, o que torna uma máquina emocionalmente inteligente? Essa é uma das perguntas que nossa pesquisa atual visa explorar”, disse ele.
Sharjeel Tahir et al., Deer: Desenhos emoções para o reconhecimento de emoções de grão fino, 2024 Conferência Internacional sobre Computação de Imagem Digital: Técnicas e Aplicações (DICTA) (2025). Doi: 10.1109/dicta63115.2024.00034
Fornecido pela Universidade Edith Cowan
Citação: O novo sistema permite que as máquinas reconheçam melhor as expressões faciais humanas (2025, 4 de junho) recuperadas em 4 de junho de 2025 em https://techxplore.com/news/2025-06-machines-human-facial.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa particular, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins de informação.
[ad_2]