Questões de Concurso Público Prefeitura de São José dos Campos - SP 2018 para Auditor Tributário Municipal - Gestão Tributária

Foram encontradas 50 questões

Q1706406 Português
    O senhor argumenta que a inteligência artificial poderá introduzir novas formas de preconceito. Como isso se daria?

    No passado, tínhamos de lidar com a discriminação coletiva contra categorias inteiras. Em breve, porém, teremos de lidar com a discriminação individual, não mais coletiva. Será o preconceito com base em dados coletados sobre cada pessoa – informações que podem revelar que alguém é péssimo em matemática, ou um mau vizinho, ou mais preguiçoso que a média. Bancos e outras corporações já estão usando algoritmos para analisar dados pessoais para só então tomar decisões que nos afetam. Quando se solicita um empréstimo, é provável que seu analista seja uma inteligência artificial. O algoritmo analisa dados como seu histórico de pagamento, seu grau de escolaridade e até a frequência de uso de seu plano de saúde para saber se você é confiável. Muitas vezes, o robô faz um trabalho melhor do que o funcionário de carne e osso. O problema é que, quando o algoritmo discrimina alguém injustamente, é difícil detectar isso. Se o banco se recusa a lhe conceder um empréstimo e você pergunta por quê, a resposta é “o algoritmo negou”. Aí você retruca: “Por que o algoritmo disse não?”. Ao que eles respondem: “Não sabemos”. Nenhum funcionário entende o algoritmo porque ele é baseado no que se chama de aprendizado de máquina avançado. Quando as pessoas discriminam grupos inteiros, esses coletivos se unem, se organizam e protestam. Mas e se o preconceito tem origem em um algoritmo que pode discriminar um único indivíduo apenas por ser quem é?

(Veja, 29.08.2018. Adaptado)
Um aspecto negativo na inteligência artificial sugerido pelo entrevistado é
Alternativas
Q1706407 Português
    O senhor argumenta que a inteligência artificial poderá introduzir novas formas de preconceito. Como isso se daria?

    No passado, tínhamos de lidar com a discriminação coletiva contra categorias inteiras. Em breve, porém, teremos de lidar com a discriminação individual, não mais coletiva. Será o preconceito com base em dados coletados sobre cada pessoa – informações que podem revelar que alguém é péssimo em matemática, ou um mau vizinho, ou mais preguiçoso que a média. Bancos e outras corporações já estão usando algoritmos para analisar dados pessoais para só então tomar decisões que nos afetam. Quando se solicita um empréstimo, é provável que seu analista seja uma inteligência artificial. O algoritmo analisa dados como seu histórico de pagamento, seu grau de escolaridade e até a frequência de uso de seu plano de saúde para saber se você é confiável. Muitas vezes, o robô faz um trabalho melhor do que o funcionário de carne e osso. O problema é que, quando o algoritmo discrimina alguém injustamente, é difícil detectar isso. Se o banco se recusa a lhe conceder um empréstimo e você pergunta por quê, a resposta é “o algoritmo negou”. Aí você retruca: “Por que o algoritmo disse não?”. Ao que eles respondem: “Não sabemos”. Nenhum funcionário entende o algoritmo porque ele é baseado no que se chama de aprendizado de máquina avançado. Quando as pessoas discriminam grupos inteiros, esses coletivos se unem, se organizam e protestam. Mas e se o preconceito tem origem em um algoritmo que pode discriminar um único indivíduo apenas por ser quem é?

(Veja, 29.08.2018. Adaptado)
É correto afirmar que, do ponto de vista do entrevistado, uma nova forma de preconceito associada à inteligência artificial é
Alternativas
Q1706408 Português
    O senhor argumenta que a inteligência artificial poderá introduzir novas formas de preconceito. Como isso se daria?

    No passado, tínhamos de lidar com a discriminação coletiva contra categorias inteiras. Em breve, porém, teremos de lidar com a discriminação individual, não mais coletiva. Será o preconceito com base em dados coletados sobre cada pessoa – informações que podem revelar que alguém é péssimo em matemática, ou um mau vizinho, ou mais preguiçoso que a média. Bancos e outras corporações já estão usando algoritmos para analisar dados pessoais para só então tomar decisões que nos afetam. Quando se solicita um empréstimo, é provável que seu analista seja uma inteligência artificial. O algoritmo analisa dados como seu histórico de pagamento, seu grau de escolaridade e até a frequência de uso de seu plano de saúde para saber se você é confiável. Muitas vezes, o robô faz um trabalho melhor do que o funcionário de carne e osso. O problema é que, quando o algoritmo discrimina alguém injustamente, é difícil detectar isso. Se o banco se recusa a lhe conceder um empréstimo e você pergunta por quê, a resposta é “o algoritmo negou”. Aí você retruca: “Por que o algoritmo disse não?”. Ao que eles respondem: “Não sabemos”. Nenhum funcionário entende o algoritmo porque ele é baseado no que se chama de aprendizado de máquina avançado. Quando as pessoas discriminam grupos inteiros, esses coletivos se unem, se organizam e protestam. Mas e se o preconceito tem origem em um algoritmo que pode discriminar um único indivíduo apenas por ser quem é?

(Veja, 29.08.2018. Adaptado)
As expressões destacadas na passagem – Bancos e outras corporações estão usando algoritmos para analisar dados pessoais para só então tomar decisões que nos afetam. – expressam em relação às ações a que se vinculam, correta e respectivamente, as noções de
Alternativas
Q1706409 Português
    O senhor argumenta que a inteligência artificial poderá introduzir novas formas de preconceito. Como isso se daria?

    No passado, tínhamos de lidar com a discriminação coletiva contra categorias inteiras. Em breve, porém, teremos de lidar com a discriminação individual, não mais coletiva. Será o preconceito com base em dados coletados sobre cada pessoa – informações que podem revelar que alguém é péssimo em matemática, ou um mau vizinho, ou mais preguiçoso que a média. Bancos e outras corporações já estão usando algoritmos para analisar dados pessoais para só então tomar decisões que nos afetam. Quando se solicita um empréstimo, é provável que seu analista seja uma inteligência artificial. O algoritmo analisa dados como seu histórico de pagamento, seu grau de escolaridade e até a frequência de uso de seu plano de saúde para saber se você é confiável. Muitas vezes, o robô faz um trabalho melhor do que o funcionário de carne e osso. O problema é que, quando o algoritmo discrimina alguém injustamente, é difícil detectar isso. Se o banco se recusa a lhe conceder um empréstimo e você pergunta por quê, a resposta é “o algoritmo negou”. Aí você retruca: “Por que o algoritmo disse não?”. Ao que eles respondem: “Não sabemos”. Nenhum funcionário entende o algoritmo porque ele é baseado no que se chama de aprendizado de máquina avançado. Quando as pessoas discriminam grupos inteiros, esses coletivos se unem, se organizam e protestam. Mas e se o preconceito tem origem em um algoritmo que pode discriminar um único indivíduo apenas por ser quem é?

(Veja, 29.08.2018. Adaptado)
É correto afirmar que a conjunção destacada na passagem do primeiro parágrafo – Em breve, porém, teremos de lidar com a discriminação individual, não mais coletiva. – introduz uma afirmação que
Alternativas
Q1706410 Português
    O senhor argumenta que a inteligência artificial poderá introduzir novas formas de preconceito. Como isso se daria?

    No passado, tínhamos de lidar com a discriminação coletiva contra categorias inteiras. Em breve, porém, teremos de lidar com a discriminação individual, não mais coletiva. Será o preconceito com base em dados coletados sobre cada pessoa – informações que podem revelar que alguém é péssimo em matemática, ou um mau vizinho, ou mais preguiçoso que a média. Bancos e outras corporações já estão usando algoritmos para analisar dados pessoais para só então tomar decisões que nos afetam. Quando se solicita um empréstimo, é provável que seu analista seja uma inteligência artificial. O algoritmo analisa dados como seu histórico de pagamento, seu grau de escolaridade e até a frequência de uso de seu plano de saúde para saber se você é confiável. Muitas vezes, o robô faz um trabalho melhor do que o funcionário de carne e osso. O problema é que, quando o algoritmo discrimina alguém injustamente, é difícil detectar isso. Se o banco se recusa a lhe conceder um empréstimo e você pergunta por quê, a resposta é “o algoritmo negou”. Aí você retruca: “Por que o algoritmo disse não?”. Ao que eles respondem: “Não sabemos”. Nenhum funcionário entende o algoritmo porque ele é baseado no que se chama de aprendizado de máquina avançado. Quando as pessoas discriminam grupos inteiros, esses coletivos se unem, se organizam e protestam. Mas e se o preconceito tem origem em um algoritmo que pode discriminar um único indivíduo apenas por ser quem é?

(Veja, 29.08.2018. Adaptado)
Observe o emprego das expressões destacadas em negrito na seguinte passagem:
Se o banco se recusa a lhe conceder um empréstimo e você pergunta por quê, a resposta é “o algoritmo negou”. Aí você retruca: “Por que o algoritmo disse não?”. Ao que eles respondem: “Não sabemos”. Nenhum funcionário entende o algoritmo porque ele é baseado no que se chama de aprendizado de máquina avançado.
Assinale a alternativa que reescreve trecho dessa passagem empregando corretamente essas expressões.
Alternativas
Respostas
1: C
2: D
3: A
4: B
5: C