Questões de Concurso Público MPE-SC 2023 para Promotor de Justiça Substituto (fase vespertina)

Foram encontradas 200 questões

Q2111634 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Considerando as regras gramaticais e ortográficas da língua portuguesa, julgue o item que se segue, relativamente ao texto 2A1-I. 
No trecho “de software ou, até mesmo, de quebra” (penúltimo período do segundo parágrafo), a eliminação da primeira vírgula prejudicaria a correção do texto.
Alternativas
Q2111635 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 

Considerando as regras gramaticais e ortográficas da língua portuguesa, julgue o item que se segue, relativamente ao texto 2A1-I. 


No último período do primeiro parágrafo, o emprego do hífen em “ético-jurídicos” é facultativo, razão por que estaria igualmente correta a grafia eticojurídicos.

Alternativas
Q2111636 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Considerando as regras gramaticais e ortográficas da língua portuguesa, julgue o item que se segue, relativamente ao texto 2A1-I. 

No início do segundo parágrafo, a substituição de “Perante a” por Perante à comprometeria a correção gramatical do texto.
Alternativas
Q2111637 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Considerando as regras gramaticais e ortográficas da língua portuguesa, julgue o item que se segue, relativamente ao texto 2A1-I. 

No início do último período do primeiro parágrafo, a inserção de uma vírgula logo após a expressão “inteligência artificial” manteria a correção gramatical do texto. 
Alternativas
Q2111638 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 

No que se refere a aspectos gramaticais do texto 2A1-I, julgue o seguinte item. 


No segundo parágrafo, o vocábulo “que”, em “que culminou com escolhas” (antepenúltimo período) e “que hackers interfiram no sistema” (penúltimo período), pertence à mesma classe gramatical. 

Alternativas
Q2111639 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
No que se refere a aspectos gramaticais do texto 2A1-I, julgue o seguinte item. 

A classificação gramatical do vocábulo “como” em “como também se observa a existência de robôs” (segundo período do primeiro parágrafo) é distinta de sua classificação em “como naquelas em que não foram realizadas atualizações” (penúltimo período do segundo parágrafo). 

Alternativas
Q2111640 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
No que se refere a aspectos gramaticais do texto 2A1-I, julgue o seguinte item. 

No primeiro período do segundo parágrafo, o vocábulo “quais” classifica-se como conjunção integrante, pois introduz uma oração que funciona como complemento do verbo “diferenciar”. 

Alternativas
Q2111641 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 

Em relação às construções sintáticas do texto 2A1-I, julgue o próximo item.


No segundo período do primeiro parágrafo, o sujeito referencial da forma verbal “superando” é “robôs”.

Alternativas
Q2111642 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Em relação às construções sintáticas do texto 2A1-I, julgue o próximo item.

No penúltimo período do segundo parágrafo, o segmento “de quebra de deveres objetivos de cuidado” qualifica “situações”. 

Alternativas
Q2111643 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Em relação às construções sintáticas do texto 2A1-I, julgue o próximo item.

No segundo período do segundo parágrafo, a expressão “uma vez que” confere noção de consequência à oração “o processo decisório decorreu de um aprendizado automático”.  

Alternativas
Q2111644 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Em relação às construções sintáticas do texto 2A1-I, julgue o próximo item.

No último período do primeiro parágrafo, a oração “essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial” está coordenada, por adição, à oração imediatamente anterior a ela e ambas estão coordenadas à oração inicial desse período. 

Alternativas
Q2111645 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Em relação às construções sintáticas do texto 2A1-I, julgue o próximo item.

No último período do segundo parágrafo, a oração “excluídas essas situações” expressa circunstância de modo. 

Alternativas
Q2111646 Português
Texto 2A1-I

     O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

       Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa. 


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações). 
Tendo em vista as normas de colocação pronominal, julgue o item subsequente, relativos ao texto 2A1-I. 

No trecho “em que se pode vislumbrar” (penúltimo período do segundo parágrafo), a ênclise do pronome “se” ao verbo auxiliar da locução verbal — em que pode-se vislumbrar —preservaria a correção gramatical do texto.  
Alternativas