Questões de Concurso Público MPE-SC 2023 para Promotor de Justiça Substituto (fase vespertina)

Foram encontradas 9 questões

Q2111648 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Com base nas regras de concordância nominal e verbal, julgue o seguinte item, relativo ao texto 2A1-I. 
No último período do primeiro parágrafo, o termo “desafiada” concorda com “centralidade”.
Alternativas
Q2111649 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Com base nas regras de concordância nominal e verbal, julgue o seguinte item, relativo ao texto 2A1-I. 
No texto, os termos da expressão “da programada” (primeiro período do segundo parágrafo) poderiam ser flexionados no gênero masculino — do programado —, sem prejuízo para a correção gramatical do texto. 

Alternativas
Q2111650 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Com base nas regras de concordância nominal e verbal, julgue o seguinte item, relativo ao texto 2A1-I. 

No trecho “os sistemas de IA passam a decidir” (primeiro período do segundo parágrafo), é facultativa a flexão da forma verbal “decidir” no plural, razão por que seria igualmente correta a expressão os sistemas de IA passam a decidirem

Alternativas
Q2111654 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 

Com relação a formas verbais empregadas no texto 2A1-I, julgue o item subsequente. 


A oração “ao agir de forma autônoma” (primeiro período do segundo parágrafo) poderia ser substituída por quando agiu de forma autônoma, sem prejuízo da correção gramatical e do paralelismo temporal dos eventos tratados no período.


Alternativas
Q2111666 Português
Texto 2A2-I

      O justo se desvela no decorrer das lutas de libertação na história. O justo é um saber que se vai constituindo à medida que nossa consciência da história se aguça. Mas não basta a consciência da história, pois procurar a justiça é uma atitude ética — é uma escolha. Não podemos cair em uma visão automática da história, na qual nossa simples posição em dado estrato social nos leva necessariamente a pensar de certa forma, a valorizar em certa medida. Se aceitássemos essa visão, bastaria ficarmos quietos esperando que a história se fizesse de acordo com seus mecanismos. Mas o real é outro. A justiça está se fazendo pela organização popular, pelo aguçamento dos conflitos. E cada um de nós vislumbra o norte da justiça, por via da busca de uma visão coerente da história, aliada a uma prática e a uma análise rigorosa das circunstâncias presentemente vividas.
       A busca da justiça como virtude não é equidistante, não é neutra, não é equilibrada. Ela nos força, a cada momento, a tomar partido, a ser parcial, tendo a parcela maior dos seres humanos como fundamento. Ser justo é viver a virtude de tomar partido em busca do melhor, fundado na visão mais lúcida possível da história e na análise das circunstâncias maiores e menores que isso envolve. A justiça é uma virtude agente que se explicita na prática social comprometida. 


Roberto Aguiar. O que é justiça: uma abordagem dialética. Brasília:
Senado Federal. Conselho Editorial, 2020, p. 319-20 (com adaptações). 
Em relação a aspectos linguísticos do texto 2A2-I, julgue o item a seguir. 
No trecho “cada um de nós vislumbra o norte da justiça” (primeiro parágrafo), a flexão da forma verbal na primeira pessoa do plural — vislumbramos — prejudicaria a correção gramatical do texto. 

Alternativas
Respostas
1: C
2: C
3: E
4: C
5: C