Sociedade evolui com “uso correto da IA”, afirma David Levi, palestrante no SSB

Sociedade evolui com “uso correto da IA”, afirma David Levi, que palestra hoje no SSB

David Levi realiza trabalho colaborativo entre academia e indústria ao redor do desenvolvimento de Inteligência Artificial. Foto : Mauro Schaefer

Por Lúcia Haggström

Pesquisador ministra palestra no último dia do South Summit Brazil 2026

O pesquisador do Stanford Institute for Human-Centered Artificial Intelligence (HAI), David Levi, é um dos palestrantes do South Summit Brazil 2026 no painel “Human-Centered AI: Choice, Not Chance” no último dia da conferência. O instituto promove o desenvolvimento e a implementação responsável da ferramenta em uma relação colaborativa entre indústria e academia.

Em entrevista a reportagem do Correio do Povo, o palestrante estabelece que a Inteligência Artificial centrada no aspecto humano deve seguir três princípios básicos: ser inspirada na inteligência humana; guiada pelos potenciais impactos da ferramenta na sociedade e servir para ampliar a capacidade humana, não com o objetivo de substituição.

De acordo com David Levi, nem toda IA é necessariamente centrada no humano. Tecnologias que são criadas especificamente para uma tarefa, ou para alcançar uma finalidade técnica em particular não atendem a esse conceito. O pesquisador adverte que iniciativas como carros autônomos, por exemplo, não levam em consideração como a ausência da necessidade de um condutor pode alterar a dinâmica social. O assunto converge com o tema central da quinta edição do South Summit Brazil.

CP – O que esse conceito “Human-Centered AI” significa?

Levi – Isso pode parecer um pouco filosófico mas na, verdade é um pensamento estratégico para criar tecnologias que trabalhem para nós, de uma forma que seja usada para nos tornar melhor e fazer a humanidade avançar. Tudo isso tem implicações na forma como essas tecnologias alteram as dinâmicas sociais e “Human-Centered AI” é sobre pensar sobre essas implicações.

CP – Hoje a IA é quase como uma extensão do cérebro das pessoas e torna possível que pessoas desempenem funções humanas, otimizando tarefas mais mecânicas. Como esse aspecto se comunica com o tema do South Summit Brazil 2026 “Human By Design”?

Levi – Definitivamente é ótimo que existam pessoas que estejam muito motivadas com a vanguarda da tecnologia de uma forma que expanda o acesso a serviços, ou criar projetos que realmente transformem o ambiente de trabalho. Mas o que faz o tema “Human by Design” tão especial, eu acho que é essa ideia de que estamos pensando nas segundas, terceiras e quartas consequências dessas inovações. Que nós estamos pensando sobre a forma como nós estamos sendo transformados por essas tecnologias. Além de que nós não estamos simplesmente buscando algo que seja muito local, mas eu penso sobre como a própria sociedade está evoluindo com ela.

CP – A IA pode ser utilizada para um bom propósito, mas também vemos pessoas utilizando para cometer crimes, por exemplo. Como nós podemos nos preparar para essa realidade?

Levi – Por um lado, há pesquisas incríveis sendo realizadas em Stanford, assim como em outras instituições, que estão buscando desenvolver formas seguras e aprimorar a segurança de diferentes sistemas, e estão progredindo. Mas, do ponto de vista da implementação, precisamos considerar que, mesmo que seja possível proteger um aplicativo ou ferramenta específica de um agente malicioso, as pessoas ainda cometem erros. Pessoas que tentam usar a ferramenta corretamente podem errar, o que pode causar danos potenciais. É por isso que a educação em IA é tão importante. Essas ferramentas surgiram de repente e muitas pessoas estão usando-as sem qualquer orientação adequada. Isso pode ser bom para a inovação, mas também representa um risco. Temos uma responsabilidade crescente, especialmente com os jovens, de educá-los sobre como usar essas ferramentas corretamente, como utilizá-las com segurança e como garantir bons resultados.

CP – Nós vemos na internet pessoas utilizando essas tecnologias para criar deepfakes, manchar a imagem de alguém, ou até inferir algo que não é real. Esse debate é muito importante para nós, já que no Brasil estamos em um ano eleitoral. Como essa popularidade da IA vem alterando o mundo em que estamos vivendo?

Levi – Obviamente, essas ferramentas são muito poderosas, mas, do ponto de vista tecnológico, existe a tentação de esperar que as empresas implementem medidas (como a instalação de marcas d’água) ou criem outras formas de distinguir conteúdo falso de verdadeiro. O que realmente inspira é que muitas pessoas não estão esperando por isso, ou seja, não estão simplesmente confiando na boa vontade dos outros para garantir a segurança das informações. Há pessoas que estão ativamente lutando por uma regulamentação melhor, por padrões mais rigorosos e criando maneiras para que veículos de comunicação e outras organizações possam verificar e lidar com novas imagens recebidas, a fim de evitar serem enganadas. Isso porque o risco é real. E, por ser real, há muitas pessoas que se importam com isso. Temos muitas delas em Stanford, e aqui no Brasil, diversos veículos de comunicação e o governo estão se empenhando para que essa política seja adequada, e o trabalho é inspirador.

CP – Muitos entusiastas falam sobre, em relação a processos mais automáticos, pessoas costumam cometer erros. Mas de alguma forma, a tecnologia operada por pessoas também não está livre disso, no sentido de a IA não ter sido programada corretamente. Na sua visão, qual o caminho para que possamos usufruir dela evitando esses erros?

Levi – Acho que temos sorte nisso, porque não precisamos promover isso apenas com base no fato de que “seria legal”. Pensar nas pessoas é o caminho para o sucesso nos negócios. Quando essas empresas, ou qualquer outra, tentam implementar tecnologia sem pensar em como usar seus funcionários adequadamente e como essa tecnologia os afeta, elas não antecipam as interferências e isso acaba levando-as a perder para as empresas que pensam nessas questões. Sobre a IA substituir cargas de trabalho, nem todos os trabalhos ou cargas de trabalho terão o mesmo nível de envolvimento. Além disso, quando você começa a implementar IA no seu ambiente de trabalho, percebe que a maneira como você concebia trabalhos ou funções não é mais o mesmo, porque em uma empresa tradicional, todos os trabalhos eram criados com base em humanos. Pensava-se que os humanos os preencheriam, considerando suas habilidades e limitações. E pensar que uma IA pode substituir isso, não funciona assim. A IA tem diferentes limitações e capacidades. Além disso, para grandes empresas, surge a questão: se você acha que pode substituir seus funcionários em larga escala por IA, qual é a vantagem de ser uma grande organização? Porque antes, uma grande organização com muitas pessoas conseguia fazer coisas que uma pequena startup não conseguia. Mas se você acha que pode fazer tudo com IA, então uma startup também pode, e seus ex-funcionários que você demitiu também podem ter acesso a essa IA. Portanto, este é um grande desafio para grandes empresas que estão implementando essas tecnologias: “Qual é a vantagem agora de ser uma grande empresa? E como elas podem manter essa vantagem em seus funcionários?” Acho que já estamos vendo evidências de que pessoas que trabalham com IA estão, na verdade, criando oportunidades ainda melhores para expansão. Nos EUA, no ano passado, foram criados 3 milhões de empregos em IA. Então, não tenho certeza se o medo de uma perda massiva de empregos é realmente válido. Acho que ainda precisamos de muito mais dados para afirmar que a IA representa uma ameaça real.

CORREIO DO POVO

Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.