Questões de Concurso Público TJ-AC 2024 para Analista Judiciário - Analista de Ciência de Dados
Foram encontradas 60 questões
Ano: 2024
Banca:
IV - UFG
Órgão:
TJ-AC
Prova:
CS-UFG - 2024 - TJ-AC - Analista Judiciário - Analista de Ciência de Dados |
Q2457906
Banco de Dados
Apache Hadoop é o principal framework utilizado no
processamento e armazenamento de grandes conjuntos de
dados (Big Data). No ecossistema Apache Hadoop, além
dos componentes básicos, diversas ferramentas e serviços
suprem necessidades de negócios, aplicações e
arquitetura de dados. O sistema de agendamento de
WorkFlow para gerenciar os jobs de computação
distribuída do MapReduce é o:
Ano: 2024
Banca:
IV - UFG
Órgão:
TJ-AC
Prova:
CS-UFG - 2024 - TJ-AC - Analista Judiciário - Analista de Ciência de Dados |
Q2457907
Algoritmos e Estrutura de Dados
O aprendizado de máquina (do inglês, machine learning) é
um conjunto de técnicas da ciência de dados que permite
que os computadores usem os dados existentes para
prever comportamentos, resultados e tendências. Uma das
formas de classificar o aprendizado é em razão da
natureza do sinal de entrada ou feedback do processo. As
árvores de decisão, agrupamento e regras de associação
são, respectivamente, técnicas de aprendizado de
máquina:
Ano: 2024
Banca:
IV - UFG
Órgão:
TJ-AC
Prova:
CS-UFG - 2024 - TJ-AC - Analista Judiciário - Analista de Ciência de Dados |
Q2457908
Algoritmos e Estrutura de Dados
Naive Bayes é um método probabilístico de aprendizado
de máquina que utiliza as frequências das ocorrências em
uma base de dados para prever uma variável de interesse.
O algoritmo a ser implementado depende da natureza dos
dados manipulados. O tipo de algoritmo Naive Bayes para
processar um conjunto de dados que possui apenas
atributos categóricos codificados em one-hot é:
Ano: 2024
Banca:
IV - UFG
Órgão:
TJ-AC
Prova:
CS-UFG - 2024 - TJ-AC - Analista Judiciário - Analista de Ciência de Dados |
Q2457909
Algoritmos e Estrutura de Dados
O ecossistema Hadoop se refere aos vários componentes
da biblioteca de software Apache Hadoop, incluindo
projetos de código aberto e ferramentas complementares
para armazenar e processar Big Data. Algumas das
ferramentas mais conhecidas incluem HDFS, Pig, YARN,
MapReduce, Spark, HBase Oozie, Sqoop e Kafka, cada
uma com função específica no ecossistema Hadoop. São
funções dos componentes do ecossistema Hadoop:
Ano: 2024
Banca:
IV - UFG
Órgão:
TJ-AC
Prova:
CS-UFG - 2024 - TJ-AC - Analista Judiciário - Analista de Ciência de Dados |
Q2457910
Algoritmos e Estrutura de Dados
Para classificar os processos tramitados no TJ-AC em
duas categorias (deferidos e indeferidos), um analista
escolheu um algoritmo que divide os dados de entrada em
duas regiões separadas por uma linha e resulta em uma
simetria na classificação, de forma que o ponto mais
próximo de cada classe está a uma distância d do ponto
médio entre os dois grupos de classe (hiperplano). O
algoritmo descrito é denominado: