Questões de Concurso
Sobre inteligencia artificial em engenharia de software
Foram encontradas 537 questões
A única maneira de se evitar o underfitting em um modelo de machine learning é reduzir a quantidade de dados de entrada, pois isso impede que o modelo fique sobrecarregado de informações irrelevantes.
O overfitting ocorre quando um modelo de machine learning tem alta precisão nos dados de treinamento, mas apresenta desempenho significativamente pior em novos dados.
O ChatGPT e o DeepSeek são plataformas de IA generativas baseadas em modelos de linguagem de grande escala (LLMs — large language models) e o princípio tecnológico dessas plataformas é a arquitetura transformer, que ajuda o modelo a aprender as relações entre palavras e frases em longos trechos de texto.
A equação a seguir é utilizada no algoritmo de Naive Bayes para modelar explicitamente a distribuição real de cada classe.
arg max{p(x|y)∙p(y)}
Um prompt é um conjunto de instruções que o modelo generativo utiliza para prever a resposta desejada.
Os nós de origem na camada de entrada da rede neural, isto é, na primeira camada oculta, fornecem os respectivos elementos do padrão de ativação (vetor de entrada), que constituem os sinais de entrada aplicados aos neurônios (nós de computação) na segunda camada.
Uma rede neural feedforward se distingue das demais pela presença de uma ou mais camadas ocultas, cujos nós de computação são chamados de neurônios ocultos ou unidades ocultas, devido ao fato de que essa parte da rede neural não é vista diretamente da entrada ou saída da rede.
Nas redes neurais multicamadas, quando se aumenta significativamente a dimensão da rede neural, o esforço computacional para sua implementação tem um aumento insignificante.
Julgue o próximo item, a respeito de machine leaning.
A biblioteca Scikit-learn é amplamente utilizada para aprendizado de máquina em Python, mas não é especializada em processamento de linguagem natural nem oferece suporte robusto para redes neurais profundas.
Sobre as características e as arquiteturas das CNNs, avalie as afirmativas a seguir.
I. Uma camada que compõe uma CNN é a camada convolucional. Nela ocorre a subamostragem da imagem, com o objetivo de se diminuir a carga computacional, o uso de memória e o número de parâmetros necessários.
II. LeNet-5, AlexNet e ResNet são exemplos de arquiteturas CNN.
III. A arquitetura de uma CNN é composta exclusivamente por camadas convolucionais e camadas de pooling.
Está correto o que se afirma em
O underfitting ocorre
Em relação ao tema, avalie as afirmações a seguir e assinale (V) para a verdadeira e (F) para a falsa.
( ) Tarefas de classificação e regressão são exemplos típicos de aprendizado supervisionado.
( ) No aprendizado não supervisionado, os dados de treinamento não estão rotulados.
( ) SVM, árvores de decisão e regressão logística são exemplos de algoritmos de aprendizado supervisionado.
As afirmativas são, respectivamente,
I. Hierarchical Clustering é mais adequado para grandes volumes de dados devido ao seu baixo custo computacional.
II. K-means é um algoritmo de clusterização que minimiza a variância dentro dos clusters ao calcular centros iterativamente.
III. DBSCAN é capaz de detectar clusters de formato arbitrário e identificar pontos como ruído se eles não pertencem a nenhum cluster.
Quais estão corretas?
Acerca de redes neurais, julgue o item subsecutivo.
As redes neurais convolucionais são uma classe de redes neurais artificiais projetadas para processar dados sequenciais, como texto ou áudio, utilizando camadas convolucionais que aplicam filtros para prever, diretamente, a saída final, isto é, sem extrair características intermediárias.
Acerca de redes neurais, julgue o item subsecutivo.
As redes neurais feedforward processam dados de entrada até a saída em uma única direção, passando por camadas ocultas, sem ciclos, e são amplamente aplicadas em tarefas supervisionadas, como classificação e regressão.
Julgue o item subsequente, a respeito de LLM e IA generativa.
No processo de inferência, o LLaMA utiliza decodificação paralela em vez de decodificação sequencial, gerando todos os tokens simultaneamente, sem depender do contexto anterior, o que elimina a necessidade de otimizações como layer-wise quantization.