Questões de Concurso Público IF-RN 2024 para Pedagogo

Foram encontradas 40 questões

Q2356029 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
O texto se desenvolve em torno da
Alternativas
Q2356030 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Sobre o papel da inteligência artificial nas transformações pelas quais o mundo está passando, o texto, em sua totalidade, apresenta uma visão
Alternativas
Q2356031 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
No primeiro parágrafo, há, além da voz da autora,
Alternativas
Q2356032 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Ao se referir à Inteligência Artificial, no primeiro período do quarto parágrafo, a autora expressa um raciocínio 
Alternativas
Q2356033 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Ao iniciar o segundo período do quarto parágrafo, a autora sinaliza que fará, em relação ao que foi afirmado no período anterior, uma 
Alternativas
Respostas
1: B
2: D
3: B
4: B
5: D