IA deve ser evitada por estudantes, diz população dos EUA

Com o avanço das inteligências artificiais (IA), a Statista, plataforma alemã de inteligência de dados, levantou, entre agosto e setembro de 2023, a percepção da população dos Estados Unidos sobre o uso de ferramentas baseadas em IA por estudantes em seus trabalhos. Quando questionados sobre a frequência com que eles deveriam utilizar esse tipo de tecnologia, os entrevistados deram a entender que a aplicação deve ser evitada. As respostas que apontam que o uso de IA  deve ser feito “nunca”, “raramente” ou só “às vezes”, somadas, representam 76% da amostra.

A pesquisa coletou informações junto a 1000 pessoas a partir de 18 anos, por meio de questionário on-line. Quando questionadas sobre qual seria a frequência de uso de IA entre estudantes, caso o recurso fosse proibido em trabalhos acadêmicos, essas pessoas acreditam que esse uso pouco diminuiria. A frequência seria reduzida em apenas 2%, em relação ao que percebem como o usual entre estudantes.

Debruçado sobre essas impressões norte-americanas, o brasileiro Fernando Giannini, autor do livro Chat GPT – Modos de pensar as relações com inteligências artificiais (2023, Streammer Educação e Tecnologia) e consultor em IA e Educação, entende que proibir ou evitar o uso de inteligência artificial por estudantes não é a questão. É necessário fazê-los entender com o que estão lidando. “Proibir não é o caminho. Orientar para o uso responsável, sim”, enfatiza o especialista.

Para Giannini, é preciso um aculturamento, entender como a máquina aprende e os contratos estabelecidos no uso de uma IA. Um educador esclarecido no assunto deve treinar para que a aplicação seja responsável e verdadeiramente proveitosa “No caso da IA generativa, é preciso que se explique, por exemplo, as implicações autorais e que o tratamento dos dados imputados na ferramenta não é claro”, entende.

“Portanto, é necessário cuidado com o que se compartilha em um chatbot generativo”,  menciona o consultor, sobre dados sensíveis, produções inéditas e outros tantos conteúdos que podem ter sua propriedade questionada no futuro.
Por outro lado, as informações fornecidas pela IA não são totalmente confiáveis. “A base de dados é limitada e a máquina aprendeu a ‘criar’ respostas, quando as informações não constam em sua base”, destaca.

Outra questão importante é que as inteligências artificiais são predominantemente norte-americanas ou europeias e os resultados de pesquisas ou solicitações feitas em um chatbot, por exemplo, podem ser cultural e historicamente enviesados para uma visão de mundo predominante na Europa ou nos EUA, criando uma hegemonia estética e intelectual.

“É preciso massa crítica para usar uma IA, caso contrário, estaremos reféns de (ou endossando) conteúdos equivocados, incompletos ou totalmente fora de nosso contexto culltural”, finaliza Giannini.

DINO

Artigos recentes

Últimos dias para pedir isenção no Vestibular de Verão da UTFPR

Prazo para solicitar isenção da taxa de inscrição vai até 22 de setembro; inscrições abertas…

% dias atrás

Saiba quanto cada candidato à Prefeitura de PG já gastou na campanha eleitoral

Dados são do início da campanha até o dia 18 de setembro. A Lei Eleitoral…

% dias atrás

Quando acionar o CRAR? Entenda os serviços prestados aos animais em risco em PG

O CRAR de Ponta Grossa resgata animais em risco, promove castração, adoção e devolução. Castração…

% dias atrás

Jovem é preso em flagrante com 78 pedras de crack na região

Além do entorpecente, também foi encontrado 25 gramas de maconha, munição calibre 38, além de…

% dias atrás

Workshop gastronômico acontece em Ponta Grossa no dia 27

O evento pretende ensinar aos participantes como cozinhar refeições nutritivas e com praticidade para se…

% dias atrás

Tecnologia antiga resiste e se mantém essencial em empresas

Utilizado em campanhas de marketing, notificações e segurança, o SMS oferece um canal de comunicação…

% dias atrás

Esse site utiliza cookies.

Política de Privacidade