Julgue o item a seguir, quanto às ferramentas e técnicas de ...
Julgue o item a seguir, quanto às ferramentas e técnicas de exploração de vulnerabilidades em aplicativos web, à Open Web Application Security Project (OWASP) e às ameaças e vulnerabilidades em aplicações web.
As ferramentas de spidering são usadas na exploração de falhas e
têm como finalidade catalogar solicitações HTTP/S enviadas a
partir do navegador e respostas geradas pela aplicação web.
Gabarito comentado
Confira o gabarito comentado por um dos nossos professores
Olá, aluno! Vamos entender melhor a questão e o tema abordado.
A alternativa correta é: E - errado
A questão aborda as ferramentas de spidering e sua finalidade no contexto da exploração de vulnerabilidades em aplicativos web.
Ferramentas de Spidering:
As ferramentas de spidering (ou web spiders) são usadas para "navegar" automaticamente através de um website, coletando e catalogando informações sobre as páginas que encontram. Isso inclui a estrutura do site, os links internos e externos, e os recursos acessíveis.
Estas ferramentas são fundamentais para a reconhecimento e mapeamento de um site antes de uma auditoria de segurança ou ataque, mas não são usadas diretamente para explorar falhas. Elas ajudam a identificar possíveis pontos de entrada que podem ser analisados posteriormente com outras ferramentas específicas para a exploração de falhas.
Por que a alternativa está errada:
A questão afirma que as ferramentas de spidering têm como finalidade catalogar solicitações HTTP/S enviadas a partir do navegador e respostas geradas pela aplicação web. Essa descrição se alinha mais com o funcionamento de ferramentas como proxies de interceptação (por exemplo, OWASP ZAP ou Burp Suite), que monitoram e registram o tráfego HTTP entre o navegador e a aplicação web.
Portanto, a descrição fornecida não corresponde com precisão à finalidade das ferramentas de spidering, que são mais voltadas para o mapeamento e descoberta de recursos no site.
Resumo dos conceitos envolvidos:
- Spidering: Ferramenta usada para mapear a estrutura de um site, identificando links e páginas.
- Proxies de Interceptação: Ferramentas que catalogam solicitações e respostas HTTP/S, auxiliando na análise das operações entre o navegador e a aplicação web.
Espero que essa explicação tenha esclarecido a questão para você. Se tiver mais dúvidas, estarei aqui para ajudar!
Clique para visualizar este gabarito
Visualize o gabarito desta questão clicando no botão abaixo
Comentários
Veja os comentários dos nossos alunos
e-
A Web crawler, sometimes called a spider or spiderbot and often shortened to crawler, is an Internet bot that systematically browses the World Wide Web and that is typically operated by search engines for the purpose of Web indexing (web spidering).
Web search engines and some other websites use Web crawling or spidering software to update their web content or indices of other sites' web content. Web crawlers copy pages for processing by a search engine, which indexes the downloaded pages so that users can search more efficiently.
https://en.wikipedia.org/wiki/Web_crawler
Um web crawler, spider ou bot de mecanismo de busca, baixa e indexa conteúdo de todas as partes da internet. O objetivo de um bot desse tipo é detectar do que se tratam (quase) todas as páginas da internet para que as informações possam ser recuperadas quando necessário.
A internet, ou pelo menos a parte dela que a maioria dos usuários acessa, também é conhecida como World Wide Web (em tradução livre, "Ampla Teia Mundial") — na verdade, é daí que vem o "www" da maioria dos URLs de sites. Então, pode-se dizer que foi uma opção lógica chamar os bots de mecanismo de busca de "spiders", aranhas que rastejam por toda a teia da internet, assim como as aranhas de verdade rastejam nas teias de aranha.
Fonte: https://www.cloudflare.com/pt-br/learning/bots/what-is-a-web-crawler/
Tem de tudo do QConcursos, até comentários em inglês. Só não tem comentário de professores nas questões...
Os Spiders são amplamente usados pelos mecanismos de pesquisa da web para indexar todas as páginas de um site, seguindo os links de uma página a outra. O motor de busca resume o conteúdo e adiciona os links aos seus índices.
ERRADO!
As ferramentas de spidering, também conhecidas como spiders ou web crawlers, não são especificamente utilizadas na exploração de falhas em aplicações web. Em vez disso, essas ferramentas são projetadas para navegar automaticamente por uma aplicação web e coletar informações sobre seu conteúdo e estrutura.
Hyago Santana
Analista Sênior de Cybersegurança do BB Tecnologia
Mestrado em Cybersegurança pela Universidade de Brasília - UnB
Clique para visualizar este comentário
Visualize os comentários desta questão clicando no botão abaixo