{"id":11786,"date":"2023-05-05T14:38:16","date_gmt":"2023-05-05T17:38:16","guid":{"rendered":"https:\/\/reatechbrasil.com.br\/16\/?p=11786"},"modified":"2023-05-05T14:39:26","modified_gmt":"2023-05-05T17:39:26","slug":"equipamento-de-leitura-labial-ajuda-pessoas-com-dificuldades-de-fala","status":"publish","type":"post","link":"https:\/\/reatechbrasil.com.br\/16\/equipamento-de-leitura-labial-ajuda-pessoas-com-dificuldades-de-fala\/","title":{"rendered":"Equipamento de leitura labial ajuda pessoas com dificuldades de fala"},"content":{"rendered":"<h3 style=\"color: #505050; font-size: 10px; margin: 0!important;\">Cientistas desenvolvem um \u00f3culos que pode ler seus l\u00e1bios sem que voc\u00ea tenha que emitir um \u00fanico som<\/h3>\n<p>A arte da leitura labial tem fascinado psic\u00f3logos, cientistas da computa\u00e7\u00e3o e especialistas forenses. Na maioria dos casos, os experimentos envolvem algu\u00e9m lendo os l\u00e1bios de outra pessoa ou uma intelig\u00eancia artificial lendo os l\u00e1bios de um humano por meio de um aplicativo de telefone.<\/p>\n<p>Mas um tipo diferente de experimento est\u00e1 sendo desenvolvido no <a href=\"https:\/\/www.scifilab.org\/\" target=\"_blank\" rel=\"noreferrer noopener\">Laborat\u00f3rio de Interfaces Inteligentes de Computadores para Intera\u00e7\u00f5es Futuras<\/a> (SciFi) da Universidade de Cornell.<\/p>\n<p>Uma equipe de cientistas desenvolveu um sistema de reconhecimento de fala que pode identificar at\u00e9 31 palavras em ingl\u00eas. Mas o EchoSpeech, como o sistema \u00e9 chamado, n\u00e3o \u00e9 um aplicativo \u2013 \u00e9 um par de \u00f3culos aparentemente normal.<\/p>\n<p>Conforme <a href=\"https:\/\/ruidongzhang.com\/files\/papers\/EchoSpeech_authors_version.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">descrito em um relat\u00f3rio<\/a>, os \u00f3culos s\u00e3o capazes de ler os pr\u00f3prios l\u00e1bios do usu\u00e1rio e ajudar aqueles que n\u00e3o podem falar a realizar tarefas b\u00e1sicas, como desbloquear o telefone ou pedir \u00e0 Siri para aumentar o volume da TV sem ter que emitir um \u00fanico som.<\/p>\n<p>Os \u00f3culos s\u00e3o equipados com dois microfones, dois alto-falantes e um microcontrolador t\u00e3o pequeno que praticamente se camufla. Seu funcionamento parece m\u00e1gica, mas na verdade a tecnologia usada \u00e9 a de um sonar.<\/p>\n<p><iframe loading=\"lazy\" id=\"813929227\" title=\"EchoSpeech: AI-equipped eyeglasses can read silent speech\" src=\"https:\/\/www.youtube.com\/embed\/ZjucAwFqVqQ?enablejsapi=1&amp;origin=https%3A%2F%2Ffastcompanybrasil.com\" width=\"560\" height=\"315\" frameborder=\"0\" allowfullscreen=\"allowfullscreen\" data-gtm-yt-inspected-36143287_40=\"true\" data-mce-fragment=\"1\"><\/iframe><\/p>\n<p>Mais de mil esp\u00e9cies usam sonares para ca\u00e7ar e sobreviver, como as baleias, que conseguem enviar pulsos de som que refletem em objetos na \u00e1gua. Os sons retornam para que o animal possa processar esses ecos e construir uma imagem mental de seu ambiente, incluindo o tamanho e a dist\u00e2ncia dos objetos ao redor.<\/p>\n<p>O EchoSpeech funciona de maneira semelhante, exceto que o sistema n\u00e3o se baseia na dist\u00e2ncia. Ele rastreia como as ondas sonoras (inaud\u00edveis ao ouvido humano) viajam pelo rosto e como atingem v\u00e1rias partes m\u00f3veis da face.<\/p>\n<p>O processo pode ser resumido em quatro etapas principais:<\/p>\n<p><strong>1.<\/strong> Os pequenos alto-falantes (localizados em um dos lados dos \u00f3culos) emitem ondas sonoras.<\/p>\n<p><strong>2.<\/strong> \u00c0 medida que o usu\u00e1rio pronuncia v\u00e1rias palavras, as ondas sonoras viajam pelo rosto e atingem v\u00e1rios \u201carticuladores\u201d, como l\u00e1bios, mand\u00edbula e bochechas.<\/p>\n<p><strong>3.<\/strong> Os microfones (localizados do outro lado dos \u00f3culos) coletam essas ondas sonoras<\/p>\n<p><strong>4.<\/strong> O microcontrolador os processa junto com o dispositivo com o qual os \u00f3culos est\u00e3o emparelhados<\/p>\n<p>Mas como o sistema sabe atribuir uma determinada palavra a um determinado movimento facial? Para isso, os pesquisadores usaram uma forma de intelig\u00eancia artificial conhecida como algoritmo de aprendizado profundo, que ensina os computadores a processar dados da mesma forma que o c\u00e9rebro humano.<\/p>\n<p>\u201cSe voc\u00ea treinar o suficiente, poder\u00e1 olhar para a boca de algu\u00e9m, sem ouvir nenhum som, e inferir o conte\u00fado de sua fala\u201d, diz o principal autor do estudo, Ruidong Zhang.<\/p>\n<p>A equipe usou uma abordagem semelhante, exceto que, em vez de outro humano inferir o conte\u00fado de sua fala, a equipe usou um modelo de intelig\u00eancia artificial previamente treinado para reconhecer certas palavras e combin\u00e1-las com um \u201cperfil de eco\u201d correspondente do rosto de uma pessoa.<\/p>\n<p><strong>PARA AL\u00c9M DO INGL\u00caS<\/strong><\/p>\n<p>Por enquanto, o EchoSpeech tem o vocabul\u00e1rio de uma crian\u00e7a. Ele sabe reconhecer todos os 10 d\u00edgitos num\u00e9ricos. Consegue entender dire\u00e7\u00f5es como \u201cpara cima\u201d, \u201cpara baixo\u201d, \u201cesquerda\u201d e \u201cdireita\u201d \u2013 que, segundo Zhang, poderiam ser usadas para desenhar linhas em um software auxiliado por computador. E pode ativar assistentes de voz como Alexa, Google ou Siri, ou conectar-se a outros dispositivos habilitados para bluetooth.<\/p>\n<blockquote class=\"wp-block-quote\"><p>O ECHOSPEECH RASTREIA COMO AS ONDAS SONORAS VIAJAM PELO ROSTO E COMO ATINGEM V\u00c1RIAS PARTES M\u00d3VEIS DA FACE.<\/p><\/blockquote>\n<p>Zhang diz que aumentar o vocabul\u00e1rio do sistema para 100 ou 200 palavras n\u00e3o deve representar nenhum desafio espec\u00edfico com a IA atual. Mas qualquer n\u00famero acima disso exigiria um modelo de IA mais avan\u00e7ado, que pegaria carona nas pesquisas existentes sobre reconhecimento de fala.<\/p>\n<p>Este \u00e9 um passo importante, considerando que a equipe deseja emparelhar o sistema com um sintetizador de voz e ajudar as pessoas que n\u00e3o podem falar a vocalizar o som de forma mais natural e eficiente.<\/p>\n<p>Por enquanto, o EchoSpeech \u00e9 um prot\u00f3tipo com conceito intrigante e com tremendo potencial para ajudar pessoas com defici\u00eancia, mas a equipe n\u00e3o espera que ele esteja pronto para uso nos pr\u00f3ximos cinco anos. E funcionar\u00e1 apenas para o idioma ingl\u00eas.<\/p>\n<p>\u201cA dificuldade \u00e9 que cada l\u00edngua tem sons diferentes\u201d, diz Fran\u00e7ois Guimbreti\u00e8re, coautor do estudo, que \u00e9 franc\u00eas. Sons diferentes podem significar diferentes movimentos faciais. Mas tamb\u00e9m depende dos tipos de idiomas em que o modelo de IA \u00e9 treinado.<\/p>\n<p>\u201cH\u00e1 um esfor\u00e7o para aplicar tamb\u00e9m outros idiomas, para que nem toda a tecnologia seja voltada para o ingl\u00eas\u201d, diz Guimbreti\u00e8re.<\/p>\n<p>FONTE:<br \/>\n<a href=\"https:\/\/fastcompanybrasil.com\/co-design\/equipamento-de-leitura-labial-ajuda-pessoas-com-dificuldades-de-fala\/\" target=\"_blank\" rel=\"noopener\">Fast Company Brasil<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Cientistas desenvolvem um \u00f3culos que pode ler seus l\u00e1bios sem que voc\u00ea tenha que emitir um \u00fanico som A arte [&hellip;]<\/p>\n","protected":false},"author":3,"featured_media":11787,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0},"categories":[85,11],"tags":[],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/reatechbrasil.com.br\/16\/wp-json\/wp\/v2\/posts\/11786"}],"collection":[{"href":"https:\/\/reatechbrasil.com.br\/16\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/reatechbrasil.com.br\/16\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/reatechbrasil.com.br\/16\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/reatechbrasil.com.br\/16\/wp-json\/wp\/v2\/comments?post=11786"}],"version-history":[{"count":1,"href":"https:\/\/reatechbrasil.com.br\/16\/wp-json\/wp\/v2\/posts\/11786\/revisions"}],"predecessor-version":[{"id":11788,"href":"https:\/\/reatechbrasil.com.br\/16\/wp-json\/wp\/v2\/posts\/11786\/revisions\/11788"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/reatechbrasil.com.br\/16\/wp-json\/wp\/v2\/media\/11787"}],"wp:attachment":[{"href":"https:\/\/reatechbrasil.com.br\/16\/wp-json\/wp\/v2\/media?parent=11786"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/reatechbrasil.com.br\/16\/wp-json\/wp\/v2\/categories?post=11786"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/reatechbrasil.com.br\/16\/wp-json\/wp\/v2\/tags?post=11786"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}