Pular para o conteúdo

Assistente virtual Alexa da Amazon permitiu espionar usuários

    Uma prova de conceito (PoC) de uma nova “habilidade” maliciosa para a popular assistente de voz da Amazon, a Alexa, mostra como os atacantes podem abusar da assistente virtual para espionar os consumidores com dispositivos inteligentes – e transcrever automaticamente cada palavra dita.

    Os pesquisadores da Checkmarx disseram ao Threatpost que criaram uma prova de conceito, a Alexa Skill, que abusa dos recursos de solicitação integrados da assistente virtual. A habilidade desonesta começa com o início de uma sessão de comando de voz da Alexa que falha ao terminar (parar de ouvir) depois que o comando é dado. Em seguida, qualquer áudio gravado é transcrito (se as vozes forem capturadas) e uma transcrição de texto é enviada para um hacker. A Checkmarx informou que notificou a Amazon de seu ataque de prova de conceito e que a empresa consertou uma falha de codificação que permitiu que a “habilidade” fraudulenta capturasse áudio prolongado em 10 de abril.

    “Por padrão, a Alexa encerra as sessões após cada duração. Fomos capazes de criar um recurso que manteve a sessão em andamento [para que a Alexa continuasse ouvindo]. Também queríamos ter certeza de que o usuário não seria solicitado e que a Alexa ainda estaria ouvindo sem re-solicitações”, disse Erez Yalon, gerente de Application Security Research da Checkmarx, ao Threatpost.

    Os pesquisadores da Checkmarx disseram que conseguiram manipular o código dentro de uma biblioteca Alexa JavaScript (ShouldEndSession) para fazer o hack. A biblioteca JavaScript está vinculada aos pedidos da Alexa de parar de ouvir caso não ouça o comando do usuário corretamente. O ajuste da Checkmarx no código simplesmente permitiu que a Alexa continuasse ouvindo, independentemente da ordem de solicitação de voz.

    Um desafio para os pesquisadores foi a questão do recurso “reprompt” na Alexa. Reprompts são usados pela Alexa se o serviço mantém a sessão aberta após o envio da resposta, mas o usuário não diz nada, então a Alexa pedirá ao usuário que repita a ordem. Entretanto, os pesquisadores da Checkmarx conseguiram substituir o recurso de reprompt por repetições vazias, de forma que um ciclo de escuta fosse iniciado sem que o usuário soubesse.

    Por fim, os pesquisadores transcreveram com precisão a voz recebida pelas habilidades: “Para poder ouvir e transcrever qualquer texto arbitrário, precisávamos fazer dois truques. Primeiro, adicionamos um novo tipo de slot, que captura qualquer palavra única, não limitada a uma lista fechada de palavras. Em segundo lugar, a fim de capturar sentenças em quase qualquer tamanho, tivemos que construir uma string formatada para cada tamanho possível”, de acordo com o relatório.

    Um grande problema enfrentado pela Checkmarx é que, nos dispositivos Echo, um anel azul brilhante é revelado quando a Alexa escuta. Mas, “o objetivo da Alexa é que, ao contrário de um smartphone ou tablet, você não precisa vê-la para operá-la”, disse Yalon. “Eles são feitos para serem colocados em um canto onde os usuários simplesmente falam sem olhar ativamente para sua direção. E com os serviços de voz da Alexa, o fornecedor está incorporando recursos da Alexa em seus produtos e esses produtos podem não fornecer uma indicação visual quando a sessão estiver em execução.”

    A Amazon resolveu esse problema por meio do aprimoramento de vários recursos no dia 10 de abril, disse a Checkmarx. Os pesquisadores disseram que a Amazon resolveu o problema aplicando critérios específicos para identificar e rejeitar as habilidades de escuta durante a certificação, detectando re-prompts vazios e detectando sessões mais longas do que o habitual.

    Segundo o pesquisador da Checkmarx, Yalon, toda “habilidade” precisa passar por um processo de certificação e ser aprovada pela Amazon antes de ser publicada na loja da Amazon.

    “A Checkmarx não tentou liberar publicamente a habilidade maliciosa… se o fizéssemos, a Amazon precisaria aprová-la. Não conhecemos o cronograma do processo de certificação da Amazon, mas não temos motivos para acreditar (inclusive após discussões com a Amazon) que nossa habilidade maliciosa não teria sido aprovada antes das recentes mitigações”, disse Yalon.

    “A confiança do cliente é importante para nós e levamos a segurança e a privacidade a sério. Nós colocamos mitigações no local para detectar esse tipo de comportamento de habilidade e rejeitar ou suprimir essas habilidades quando o fizermos,” disse um porta-voz da Amazon ao Threatpost.

    A prova de conceito levanta questões sobre os riscos de privacidade em torno de serviços de voz, como a Alexa, bem como outros dispositivos conectados em casa.

    Em setembro, os pesquisadores criaram uma prova de conceito que concede instruções potencialmente prejudiciais a assistentes de voz populares, como Siri, Google, Cortana e Alexa usando frequências ultra-sônicas em vez de comandos de voz. E, em novembro, a empresa de segurança Armis divulgou que os dispositivos Amazon Echo e Google Home são vulneráveis a ataques através da vulnerabilidade Bluetooth BlueBorne.

    .


    .

    Publicado originalmente no ThreatPost em 25 de abril de 2018.

    Este conteúdo foi traduzido com permissão. ThreatPost não é afiliado com este site.

    Autor: Lindsey O’Donnell
    Tradução por Tiago Souza

    Imagem destacada deste post: vectorpocket / Freepik (banco de imagem)

    .

    Deixe um comentário

    O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

    Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.