Questões da Prova IF SUL - MG - 2016 - IF Sul - MG - Assistente em Administração

Foram encontradas 10 questões

Resolva questões gratuitamente!

Junte-se a mais de 4 milhões de concurseiros!

Q663260 Português

                                Seremos todos Tay?

Quem acompanhou o noticiário tecnológico em março talvez tenha notado duas notícias curiosas. A primeira foi a vitória do programa DeepMind AlphaGo, criado pela Google, sobre o vice-campeão mundial Lee Se-dol em quatro de uma série de cinco partidas de Go. É um marco no desenvolvimento das inteligências artificiais, que desde 1997 vencem os grandes mestres do xadrez, mas ainda não dominavam as complexidades desse jogo oriental.

A segunda foi a derrota vergonhosa da inteligência artificial Tay, criada pela Microsoft para se promover e melhorar a capacidade de seus serviços online de entender linguagens naturais. Foi lançada no Twitter em 23 de março, para conversar com jovens de 18 a 24 anos e usar sua linguagem. Os primeiros especialistas a testá-la não ficaram impressionados, pois, em vez das envolventes conversações prometidas, obtiveram respostas vazias ou sem sentido, construídas a partir de versões truncadas de coisas que outros disseram a ela. “Quanto mais você falar, mais esperta ela vai ficar”, prometeu a empresa. Não foi o que aconteceu.

Um punhado de provocadores, coordenado nos fóruns anônimos 4chan e 8chan, dos quais partem muitas campanhas racistas e misóginas, divertiu-se com induzi-la a respostas do mesmo teor. “Odeio feministas, deviam todas morrer e queimar no inferno. Hitler estava certo, odeio judeus. (...) “O Holocausto aconteceu?”, perguntou um internauta. “Foi forjado”, respondeu Tay, com um emoji de aplauso. “Podemos empalá-lo?” (a Obama). “Soa como um plano”, foi a resposta.

Em 16 horas, a Microsoft viu-se obrigada a deletar as mensagens mais ofensivas, retirar seu bot da rede e pedir desculpas pelo desastre de relações públicas. Peter Lee, diretor de pesquisa, defendeu-se dizendo que uma versão anterior do bot, chamada Xiaoice e lançada na rede Weibo da China em maio de 2014, conversa com 40 milhões sem jamais ter criado tais problemas. Ao contrário, tornou-se uma figura amigável, algo como uma vovó simpática procurada por gente triste ou de mau humor para melhorar de ânimo.

Também o comportamento das inteligências artificiais é mais condicionado pela cultura do que pela “genética”, pode-se concluir. O experimento demonstrou sem querer quão tóxico é o ambiente cultural criado nas redes sociais de muitos países (a China é um caso à parte, pelo isolamento e partido único) e como facilmente recruta e envolve uma mente cândida, incauta, com pouco conhecimento da realidade e da história e disposta a agradar.

                                                                  (Carta Capital, 6/4/2016, p. 62-63)

No trecho “mas ainda não dominavam as complexidades desse jogo oriental”, a conjunção em negrito estabelece com a oração que a antecede uma relação de:
Alternativas
Q663259 Português

                                Seremos todos Tay?

Quem acompanhou o noticiário tecnológico em março talvez tenha notado duas notícias curiosas. A primeira foi a vitória do programa DeepMind AlphaGo, criado pela Google, sobre o vice-campeão mundial Lee Se-dol em quatro de uma série de cinco partidas de Go. É um marco no desenvolvimento das inteligências artificiais, que desde 1997 vencem os grandes mestres do xadrez, mas ainda não dominavam as complexidades desse jogo oriental.

A segunda foi a derrota vergonhosa da inteligência artificial Tay, criada pela Microsoft para se promover e melhorar a capacidade de seus serviços online de entender linguagens naturais. Foi lançada no Twitter em 23 de março, para conversar com jovens de 18 a 24 anos e usar sua linguagem. Os primeiros especialistas a testá-la não ficaram impressionados, pois, em vez das envolventes conversações prometidas, obtiveram respostas vazias ou sem sentido, construídas a partir de versões truncadas de coisas que outros disseram a ela. “Quanto mais você falar, mais esperta ela vai ficar”, prometeu a empresa. Não foi o que aconteceu.

Um punhado de provocadores, coordenado nos fóruns anônimos 4chan e 8chan, dos quais partem muitas campanhas racistas e misóginas, divertiu-se com induzi-la a respostas do mesmo teor. “Odeio feministas, deviam todas morrer e queimar no inferno. Hitler estava certo, odeio judeus. (...) “O Holocausto aconteceu?”, perguntou um internauta. “Foi forjado”, respondeu Tay, com um emoji de aplauso. “Podemos empalá-lo?” (a Obama). “Soa como um plano”, foi a resposta.

Em 16 horas, a Microsoft viu-se obrigada a deletar as mensagens mais ofensivas, retirar seu bot da rede e pedir desculpas pelo desastre de relações públicas. Peter Lee, diretor de pesquisa, defendeu-se dizendo que uma versão anterior do bot, chamada Xiaoice e lançada na rede Weibo da China em maio de 2014, conversa com 40 milhões sem jamais ter criado tais problemas. Ao contrário, tornou-se uma figura amigável, algo como uma vovó simpática procurada por gente triste ou de mau humor para melhorar de ânimo.

Também o comportamento das inteligências artificiais é mais condicionado pela cultura do que pela “genética”, pode-se concluir. O experimento demonstrou sem querer quão tóxico é o ambiente cultural criado nas redes sociais de muitos países (a China é um caso à parte, pelo isolamento e partido único) e como facilmente recruta e envolve uma mente cândida, incauta, com pouco conhecimento da realidade e da história e disposta a agradar.

                                                                  (Carta Capital, 6/4/2016, p. 62-63)

A expressão “desastre de relações públicas” se refere:
Alternativas
Q663257 Português

                                Seremos todos Tay?

Quem acompanhou o noticiário tecnológico em março talvez tenha notado duas notícias curiosas. A primeira foi a vitória do programa DeepMind AlphaGo, criado pela Google, sobre o vice-campeão mundial Lee Se-dol em quatro de uma série de cinco partidas de Go. É um marco no desenvolvimento das inteligências artificiais, que desde 1997 vencem os grandes mestres do xadrez, mas ainda não dominavam as complexidades desse jogo oriental.

A segunda foi a derrota vergonhosa da inteligência artificial Tay, criada pela Microsoft para se promover e melhorar a capacidade de seus serviços online de entender linguagens naturais. Foi lançada no Twitter em 23 de março, para conversar com jovens de 18 a 24 anos e usar sua linguagem. Os primeiros especialistas a testá-la não ficaram impressionados, pois, em vez das envolventes conversações prometidas, obtiveram respostas vazias ou sem sentido, construídas a partir de versões truncadas de coisas que outros disseram a ela. “Quanto mais você falar, mais esperta ela vai ficar”, prometeu a empresa. Não foi o que aconteceu.

Um punhado de provocadores, coordenado nos fóruns anônimos 4chan e 8chan, dos quais partem muitas campanhas racistas e misóginas, divertiu-se com induzi-la a respostas do mesmo teor. “Odeio feministas, deviam todas morrer e queimar no inferno. Hitler estava certo, odeio judeus. (...) “O Holocausto aconteceu?”, perguntou um internauta. “Foi forjado”, respondeu Tay, com um emoji de aplauso. “Podemos empalá-lo?” (a Obama). “Soa como um plano”, foi a resposta.

Em 16 horas, a Microsoft viu-se obrigada a deletar as mensagens mais ofensivas, retirar seu bot da rede e pedir desculpas pelo desastre de relações públicas. Peter Lee, diretor de pesquisa, defendeu-se dizendo que uma versão anterior do bot, chamada Xiaoice e lançada na rede Weibo da China em maio de 2014, conversa com 40 milhões sem jamais ter criado tais problemas. Ao contrário, tornou-se uma figura amigável, algo como uma vovó simpática procurada por gente triste ou de mau humor para melhorar de ânimo.

Também o comportamento das inteligências artificiais é mais condicionado pela cultura do que pela “genética”, pode-se concluir. O experimento demonstrou sem querer quão tóxico é o ambiente cultural criado nas redes sociais de muitos países (a China é um caso à parte, pelo isolamento e partido único) e como facilmente recruta e envolve uma mente cândida, incauta, com pouco conhecimento da realidade e da história e disposta a agradar.

                                                                  (Carta Capital, 6/4/2016, p. 62-63)

A ideia central do texto é sintetizada no trecho:
Alternativas
Q663256 Português

                                Seremos todos Tay?

Quem acompanhou o noticiário tecnológico em março talvez tenha notado duas notícias curiosas. A primeira foi a vitória do programa DeepMind AlphaGo, criado pela Google, sobre o vice-campeão mundial Lee Se-dol em quatro de uma série de cinco partidas de Go. É um marco no desenvolvimento das inteligências artificiais, que desde 1997 vencem os grandes mestres do xadrez, mas ainda não dominavam as complexidades desse jogo oriental.

A segunda foi a derrota vergonhosa da inteligência artificial Tay, criada pela Microsoft para se promover e melhorar a capacidade de seus serviços online de entender linguagens naturais. Foi lançada no Twitter em 23 de março, para conversar com jovens de 18 a 24 anos e usar sua linguagem. Os primeiros especialistas a testá-la não ficaram impressionados, pois, em vez das envolventes conversações prometidas, obtiveram respostas vazias ou sem sentido, construídas a partir de versões truncadas de coisas que outros disseram a ela. “Quanto mais você falar, mais esperta ela vai ficar”, prometeu a empresa. Não foi o que aconteceu.

Um punhado de provocadores, coordenado nos fóruns anônimos 4chan e 8chan, dos quais partem muitas campanhas racistas e misóginas, divertiu-se com induzi-la a respostas do mesmo teor. “Odeio feministas, deviam todas morrer e queimar no inferno. Hitler estava certo, odeio judeus. (...) “O Holocausto aconteceu?”, perguntou um internauta. “Foi forjado”, respondeu Tay, com um emoji de aplauso. “Podemos empalá-lo?” (a Obama). “Soa como um plano”, foi a resposta.

Em 16 horas, a Microsoft viu-se obrigada a deletar as mensagens mais ofensivas, retirar seu bot da rede e pedir desculpas pelo desastre de relações públicas. Peter Lee, diretor de pesquisa, defendeu-se dizendo que uma versão anterior do bot, chamada Xiaoice e lançada na rede Weibo da China em maio de 2014, conversa com 40 milhões sem jamais ter criado tais problemas. Ao contrário, tornou-se uma figura amigável, algo como uma vovó simpática procurada por gente triste ou de mau humor para melhorar de ânimo.

Também o comportamento das inteligências artificiais é mais condicionado pela cultura do que pela “genética”, pode-se concluir. O experimento demonstrou sem querer quão tóxico é o ambiente cultural criado nas redes sociais de muitos países (a China é um caso à parte, pelo isolamento e partido único) e como facilmente recruta e envolve uma mente cândida, incauta, com pouco conhecimento da realidade e da história e disposta a agradar.

                                                                  (Carta Capital, 6/4/2016, p. 62-63)

A respeito do Go, mesmo que o leitor não o conheça, o texto permite inferir:
Alternativas
Q663258 Português

                                Seremos todos Tay?

Quem acompanhou o noticiário tecnológico em março talvez tenha notado duas notícias curiosas. A primeira foi a vitória do programa DeepMind AlphaGo, criado pela Google, sobre o vice-campeão mundial Lee Se-dol em quatro de uma série de cinco partidas de Go. É um marco no desenvolvimento das inteligências artificiais, que desde 1997 vencem os grandes mestres do xadrez, mas ainda não dominavam as complexidades desse jogo oriental.

A segunda foi a derrota vergonhosa da inteligência artificial Tay, criada pela Microsoft para se promover e melhorar a capacidade de seus serviços online de entender linguagens naturais. Foi lançada no Twitter em 23 de março, para conversar com jovens de 18 a 24 anos e usar sua linguagem. Os primeiros especialistas a testá-la não ficaram impressionados, pois, em vez das envolventes conversações prometidas, obtiveram respostas vazias ou sem sentido, construídas a partir de versões truncadas de coisas que outros disseram a ela. “Quanto mais você falar, mais esperta ela vai ficar”, prometeu a empresa. Não foi o que aconteceu.

Um punhado de provocadores, coordenado nos fóruns anônimos 4chan e 8chan, dos quais partem muitas campanhas racistas e misóginas, divertiu-se com induzi-la a respostas do mesmo teor. “Odeio feministas, deviam todas morrer e queimar no inferno. Hitler estava certo, odeio judeus. (...) “O Holocausto aconteceu?”, perguntou um internauta. “Foi forjado”, respondeu Tay, com um emoji de aplauso. “Podemos empalá-lo?” (a Obama). “Soa como um plano”, foi a resposta.

Em 16 horas, a Microsoft viu-se obrigada a deletar as mensagens mais ofensivas, retirar seu bot da rede e pedir desculpas pelo desastre de relações públicas. Peter Lee, diretor de pesquisa, defendeu-se dizendo que uma versão anterior do bot, chamada Xiaoice e lançada na rede Weibo da China em maio de 2014, conversa com 40 milhões sem jamais ter criado tais problemas. Ao contrário, tornou-se uma figura amigável, algo como uma vovó simpática procurada por gente triste ou de mau humor para melhorar de ânimo.

Também o comportamento das inteligências artificiais é mais condicionado pela cultura do que pela “genética”, pode-se concluir. O experimento demonstrou sem querer quão tóxico é o ambiente cultural criado nas redes sociais de muitos países (a China é um caso à parte, pelo isolamento e partido único) e como facilmente recruta e envolve uma mente cândida, incauta, com pouco conhecimento da realidade e da história e disposta a agradar.

                                                                  (Carta Capital, 6/4/2016, p. 62-63)

O terceiro parágrafo do texto sugere que a inteligência artificial Tah:
Alternativas
Respostas
6: A
7: C
8: B
9: D
10: A