O analista Pedro definiu no Logstash do TJDFT um novo pipeli...
A fim de estruturar a entrada do SPipeline com o uso de expressões regulares, Pedro deve adicionar ao SPipeline o filtro do Logstash:
Eu digo "SO" e vocês dizem "CORRO" kkkkkk
No começo não entendi, no final parecia o começo :(
Pessoal, solicitem o comentário do professor! De preferência para ontem..rss
eu ia pular, mas resolvi errar sonde raiva.
Genteee, kd os comentários dos professores?
C) Grok
Correta:
Uma vez que foi configurada as entradas de dados é necessário que as mesmas sejam analisadas e seus valores estruturados. Para tal, a linguagem Grok é atualmente a melhor maneira em logstash para analisar e transformar dados de log não estruturados em algo estruturado e passível de consulta.
Questão da Nasa?!!! Errei consciente kkkk
nunca aceitaria
mas é questão para cargo de T.i pessoal, quem errar não se sinta mal KKKKKKichute certeiro esse..kkk
O Logstash é um pipeline de processamento de dados leve, de código aberto e no lado do servidor que permite coletar dados de uma variedade de fontes, transformá-los dinamicamente e enviá-los ao destino desejado. Ele é usado com mais frequência como um pipeline de dados para o Elasticsearch, um mecanismo de pesquisa e análise de código aberto. Devido à sua estreita integração com o Elasticsearch, poderosos recursos de processamento de logs e mais de 200 plugins de código aberto pré-construídos que podem ajudar você a indexar seus dados facilmente, o Logstash é uma escolha popular para carregar dados no Elasticsearch.
Na informática, o pipeline é usado em micro-processadores, cartões gráficos e software. Os cálculos que são realizados no processo de programação devem ser sincronizados com um relógio para evitar os tramos mais recargados que se detectam entre dois registos.
Grok é um software que permite analisar facilmente logs e outros arquivos. Com grok, você pode
transforme dados não estruturados de log e eventos em dados estruturados.
Pensa no chute que deu bom. Ai na hora da prova, chute e erro kkkkk
FGV sem sombra de dúvidas é a banca mais cruel em concursos. cruel muito cruel kkk
Logstash é um pipeline de processamento de dados leve, de código aberto e no lado do servidor que permite coletar dados de uma variedade de fontes, transformá-los dinamicamente e enviá-los ao destino desejado.
Com grok, você pode transformar dados não estruturados de log e eventos em dados estruturados.
- Grok :
- Analisa dados de eventos não estruturados em campos;
- Estruturar a entrada do SPipeline com o uso de expressões regulares
- Mutate: Executa mutações em campos
- Drop: Elimina TODOS os eventos
- Clone: Eventos duplicados
- Geoip: adiciona informações geográficas sobre um endereço IP
- Aggregate: Agrega informações de vários eventos originados com uma única tarefa
O Logstash um pipeline gratuito e aberto de processamento de dados do lado do servidor que faz a ingestão de dados de inúmeras fontes. Os filtros são adicionados como plugins para condicionar os eventos.
A - Errado. Drop elimina eventos.
B - Errado. Mutate executa mutações em campos.
C - Certo. Grok permite analisar dados não estruturados e os estruturar de forma que possam ser consultados.
D - Errado. Clone é útil para duplicação de eventos.
E - Errado. Aggregate é um filtro para agregar informações de diversos eventos de um mesmo job.
Fonte: https://www.elastic.co/guide/en/logstash/current/filter-plugins.html
Gabarito: letra C
Logstash, bla bla bla bla bla bla NAO ESTRUTURADO bla bla bla bla
Resposta: grok
A alternativa correta é a letra C - grok.
O tema abordado pela questão está relacionado ao processamento de dados usando a ferramenta Logstash, que é uma parte do conjunto de ferramentas Elasticsearch (ELK). O Logstash é amplamente utilizado para coletar, processar e encaminhar dados de log para armazenamento, como o Elasticsearch, por exemplo.
Na situação apresentada, o analista Pedro está trabalhando com um pipeline no Logstash chamado SPipeline, que precisa transformar dados de um formato não estruturado (um arquivo de texto arbitrário) para um formato estruturado. Para efetuar essa transformação, é necessário utilizar filtros que possibilitem a interpretação e a estruturação dos dados de entrada.
O filtro grok é o mais adequado para esta tarefa porque ele é projetado para analisar textos semi-estruturados ou não estruturados e extrair dados com base em expressões regulares predefinidas ou personalizadas. Isso permite que os logs escritos em forma de texto sejam decompilados em partes estruturadas e facilmente compreensíveis, o que é exatamente o que Pedro precisa para o seu pipeline.
As outras opções apresentadas são outros filtros do Logstash, mas não atendem ao propósito necessário:
- drop: descarta eventos que não se deseja passar pelo pipeline;
- mutate: permite renomear, remover, substituir e modificar campos nos eventos;
- clone: cria cópias de um evento, possivelmente adicionando ou alterando campos;
- aggregate: permite agregar informações de múltiplos eventos ou requests em um único evento.
Portanto, o filtro grok é a escolha correta para estruturar a entrada de dados não estruturada no SPipeline que Pedro definiu no Logstash do TJDFT.