Questões de Concurso Público MPE-SC 2023 para Promotor de Justiça Substituto (fase vespertina)

Foram encontradas 200 questões

Q2111634 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Considerando as regras gramaticais e ortográficas da língua portuguesa, julgue o item que se segue, relativamente ao texto 2A1-I. 
No trecho “de software ou, até mesmo, de quebra” (penúltimo período do segundo parágrafo), a eliminação da primeira vírgula prejudicaria a correção do texto.
Alternativas
Q2111635 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 

Considerando as regras gramaticais e ortográficas da língua portuguesa, julgue o item que se segue, relativamente ao texto 2A1-I. 


No último período do primeiro parágrafo, o emprego do hífen em “ético-jurídicos” é facultativo, razão por que estaria igualmente correta a grafia eticojurídicos.

Alternativas
Q2111636 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Considerando as regras gramaticais e ortográficas da língua portuguesa, julgue o item que se segue, relativamente ao texto 2A1-I. 

No início do segundo parágrafo, a substituição de “Perante a” por Perante à comprometeria a correção gramatical do texto.
Alternativas
Q2111637 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Considerando as regras gramaticais e ortográficas da língua portuguesa, julgue o item que se segue, relativamente ao texto 2A1-I. 

No início do último período do primeiro parágrafo, a inserção de uma vírgula logo após a expressão “inteligência artificial” manteria a correção gramatical do texto. 
Alternativas
Q2111638 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 

No que se refere a aspectos gramaticais do texto 2A1-I, julgue o seguinte item. 


No segundo parágrafo, o vocábulo “que”, em “que culminou com escolhas” (antepenúltimo período) e “que hackers interfiram no sistema” (penúltimo período), pertence à mesma classe gramatical. 

Alternativas
Respostas
1: C
2: E
3: C
4: E
5: E