IA deve ser evitada por estudantes, diz população dos EUA

Com o avanço das inteligências artificiais (IA), a Statista, plataforma alemã de inteligência de dados, levantou, entre agosto e setembro de 2023, a percepção da população dos Estados Unidos sobre o uso de ferramentas baseadas em IA por estudantes em seus trabalhos. Quando questionados sobre a frequência com que eles deveriam utilizar esse tipo de tecnologia, os entrevistados deram a entender que a aplicação deve ser evitada. As respostas que apontam que o uso de IA  deve ser feito “nunca”, “raramente” ou só “às vezes”, somadas, representam 76% da amostra.

A pesquisa coletou informações junto a 1000 pessoas a partir de 18 anos, por meio de questionário on-line. Quando questionadas sobre qual seria a frequência de uso de IA entre estudantes, caso o recurso fosse proibido em trabalhos acadêmicos, essas pessoas acreditam que esse uso pouco diminuiria. A frequência seria reduzida em apenas 2%, em relação ao que percebem como o usual entre estudantes.

Debruçado sobre essas impressões norte-americanas, o brasileiro Fernando Giannini, autor do livro Chat GPT – Modos de pensar as relações com inteligências artificiais (2023, Streammer Educação e Tecnologia) e consultor em IA e Educação, entende que proibir ou evitar o uso de inteligência artificial por estudantes não é a questão. É necessário fazê-los entender com o que estão lidando. “Proibir não é o caminho. Orientar para o uso responsável, sim”, enfatiza o especialista.

Para Giannini, é preciso um aculturamento, entender como a máquina aprende e os contratos estabelecidos no uso de uma IA. Um educador esclarecido no assunto deve treinar para que a aplicação seja responsável e verdadeiramente proveitosa “No caso da IA generativa, é preciso que se explique, por exemplo, as implicações autorais e que o tratamento dos dados imputados na ferramenta não é claro”, entende.

“Portanto, é necessário cuidado com o que se compartilha em um chatbot generativo”,  menciona o consultor, sobre dados sensíveis, produções inéditas e outros tantos conteúdos que podem ter sua propriedade questionada no futuro.
Por outro lado, as informações fornecidas pela IA não são totalmente confiáveis. “A base de dados é limitada e a máquina aprendeu a ‘criar’ respostas, quando as informações não constam em sua base”, destaca.

Outra questão importante é que as inteligências artificiais são predominantemente norte-americanas ou europeias e os resultados de pesquisas ou solicitações feitas em um chatbot, por exemplo, podem ser cultural e historicamente enviesados para uma visão de mundo predominante na Europa ou nos EUA, criando uma hegemonia estética e intelectual.

“É preciso massa crítica para usar uma IA, caso contrário, estaremos reféns de (ou endossando) conteúdos equivocados, incompletos ou totalmente fora de nosso contexto culltural”, finaliza Giannini.

DINO

Artigos recentes

Memorial do Basquetebol de Ponta Grossa destaca os 102 anos da Seleção Brasileira

A Seleção Brasileira de Basquete, que completa 102 anos, destaca-se com 3 bronzes olímpicos e…

% dias atrás

Acidente em Jaguariaíva: Carro colide com moto e motociclista fica ferido

Na noite de quarta-feira (18), um acidente em Jaguariaíva envolveu um carro sem habilitação e…

% dias atrás

Incêndio em residência deixa homem ferido em vila de Ponta Grossa

Na noite de quarta-feira (18), um incêndio em um barraco de madeira na Rua Sabiá,…

% dias atrás

Sanepar Alerta: Abastecimento pode ser afetado em vilas de PG até quinta-feira

A Sanepar avisa sobre baixa pressão e falta de água temporária em bairros de Ponta…

% dias atrás

KFSHRC Comemora Contribuições Marcantes na 2024 NYC C3 Summit Davos of Healthcare

RIADE, Arábia Saudita, Sept. 18, 2024 (GLOBE NEWSWIRE) -- O King Faisal Specialist Hospital& Research…

% dias atrás

Aruba e NetApp fazem parceria para elevar as ofertas de TI

A Aruba se apresentará no NetApp INSIGHT 2024 para ilustrar como a colaboração estratégica impulsiona…

% dias atrás

Esse site utiliza cookies.

Política de Privacidade