UX para IA: 5 princípios práticos para criar experiências incríveis com inteligência artificial

‎Por Felipe Gressler

Os LLMs inauguraram uma nova fase tecnológica e seu enorme potencial gerou uma corrida para incorporá-los, acelerando seu uso em produtos digitais. O intervalo entre sua criação e adoção em escala foi extremamente curto, deixando pouco espaço para maturar boas práticas ou entender as melhores formas de aplicá-los em diferentes contextos.

O sucesso do ChatGPT influenciou diretamente a forma como as pessoas pensam o uso de IA nos seus produtos. Por ser a maior referência no assunto, o padrão virou copiá-lo e todo mundo passou a desenvolver a mesma coisa: uma interface conversacional, treinada com os dados do seu produto e colada por cima da interface existente. Essa funcionalidade de assistente tem seu valor, mas na maioria dos casos não é a melhor forma de usar essa tecnologia no seu produto.

A falta de referências e padrões me lembrou muito os debates sobre produto e UX dos anos 2000 e 2010. No meu (quase) começo de carreira, a grande novidade eram os smartphones. Eles introduziram telas pequenas, a capacidade do toque, internet (lenta) onde você estiver e, com isso, uma série de incertezas sobre como criar experiências para eles. Toda decisão era debatida e cada fluxo era um experimento. Com o tempo, as melhores ideias foram se consolidando e, hoje, muitos desses padrões são tão óbvios que já vêm prontos em frameworks.

Quando fizemos as primeiras implementações de IA generativa na Galena, nosso maior foco foi evitar a armadilha do copia e cola. Buscamos formas de usar a IA de um jeito que realmente potencializasse o produto, de forma coerente com sua proposta de valor e sem substituir ou enfraquecer o que já funcionava bem.

O déjà vu foi imediato. Um dos grandes aprendizados que tivemos na revolução dos smartphones, depois que encontramos os novos padrões, foi perceber que muitos deles seguiam princípios já conhecidos de outras mídias e tecnologias. A implementação era nova, mas a forma de pensar não. A tecnologia abriu novas possibilidades, mas o comportamento humano continuou o mesmo, apenas com mais opções.

E isso é uma boa notícia. Porque, além de aprender com todos os testes e iterações que faremos, a gente pode (e deve) aprender também com teorias e premissas de interação já estabelecidas. No final, as decisões de UX continuam sendo sobre gente.

Neste artigo, compartilho 5 princípios que me ajudaram a tomar decisões melhores ao incorporar IA ao produto. Para quem trabalha com produto faz tempo, nenhum deles será exatamente novo. E esse é justamente o ponto.



1. Comece com opções claras

Uma das maiores mudanças que a IA traz para o design de produto é a possibilidade de lidar com entradas abertas. LLMs entendem linguagem natural, o que significa que, tecnicamente, o usuário pode dizer o que quiser.

É tentador devolver esse poder ao usuário com um campo de texto aberto. A expectativa é que isso vai oferecer mais liberdade e controle. Mas isso não quer dizer que o usuário vai saber usá-lo bem.

A maior parte dos usuários chega ao seu produto sem saber exatamente o que ele faz, quais são as possibilidades ou por onde começar. A maioria ainda está tentando entender onde está pisando e caixas de texto abertas são uma das piores formas de apresentar os caminhos. Elas não explicam o produto ou funcionalidade, não mostram o que é possível e não sugerem próximos passos. Em vez de orientar, deixam o usuário para descobrir sozinho.

Oferecer opções pré-formatadas não é só uma forma de guiar a navegação. Elas ajudam a introduzir o produto, dão ideias e direcionam a jornada para quem ainda nem sabe que jornada é essa. Elas ajudam o usuário a dar mais um passo. Pode parecer que estamos limitando possibilidades mas, na verdade, estamos organizando a descoberta.

Elas também ajudam a melhorar os inputs e, com isso, os resultados. Ao apresentar sugestões que você sabe que funcionam bem (porque foram testadas, estão alinhadas com a proposta do produto ou geram melhores outputs da IA), você está ajudando o usuário a tomar decisões mais eficazes. O input fica mais qualificado e a IA responde melhor. E o usuário consegue resultados melhores com baixo esforço e pouca exploração.

Essa abordagem se apoia em dois fundamentos importantes:

O primeiro é a Teoria da Carga Cognitiva, de John Sweller. Ela diz que, ao sobrecarregar a memória de trabalho da pessoa, o resultado quase sempre é frustração e abandono. Caixas abertas exigem esforço de formulação, avaliação e decisão. Já as opções visuais reduzem esse esforço e liberam espaço mental para seguir em frente.

O segundo é o Paradoxo da Escolha, de Barry Schwartz. Ele mostra que liberdade demais pode paralisar e, quanto mais caminhos possíveis, maior o risco de arrependimento ou inação. Dar algumas opções bem curadas ajuda o usuário a dar o próximo passo e aumenta o seu engajamento.

Na Galena, o primeiro passo do onboarding do usuário é mapear o seu perfil. Mesmo com IA por trás, começamos com perguntas objetivas e opções pré-formatadas. Carreira, áreas de interesse, objetivos profissionais, estilo de aprendizagem — todas as opções são apresentadas como botões, seletores e outros elementos de fácil interação. Isso ajuda o usuário a entender o que é possível, evita a paralisia do campo em branco e garante uma base mais sólida para a IA trabalhar. A interpretação inteligente vem depois, mas começa com uma entrada simples, acessível e bem guiada.

Começar com opções claras não é limitar a inteligência do sistema. É respeitar o limite natural de quem está explorando algo novo e, ao mesmo tempo, garantir que o usuário consiga bons resultados.



2. Dê liberdade para quem sabe o que quer

Apesar da importância de guiar o usuário com boas opções, também é essencial reconhecer que nem todo mundo precisa ser guiado o tempo todo. Alguns usuários já chegam sabendo exatamente o que querem e, quando encontram uma experiência fechada demais, sentem que estão sendo limitados.

A IA tem uma vantagem enorme nesse ponto: ela consegue lidar com personalizações extremas, mesmo com dados de entrada desestruturados. E ignorar isso é desperdiçar o que a tecnologia tem de melhor.

Por isso é fundamental oferecer opções mais avançadas para quem quer ir além das sugeridas. Pode ser um botão do tipo “outra resposta”, um campo adicional para observações ou a chance de subir um arquivo com mais contexto. O que importa é reconhecer que, quando o usuário é avançado, a melhor entrada pode estar na sua cabeça.

Porém, esse tipo de liberdade precisa ser oferecida com cuidado. Campos abertos não devem aparecer no início, nem travar o fluxo. Eles funcionam melhor como um último passo opcional, depois que o usuário já entendeu o básico e ganhou confiança na jornada. Esse posicionamento reduz a intimidação, mantém o ritmo da experiência e evita bloqueios. 

Produtos bem desenhados oferecem conforto para a maioria e poder para usuários avançados. Você simplifica para quem precisa e aprofunda para quem quer. Nem todo mundo vai usar e tudo bem. Mas quem usar, geralmente tem um motivo claro e extrai um valor proporcionalmente maior da experiência.

Esse é um conceito bem estabelecido, fundamentado no princípio de Design Progressivo (Alan Cooper, Robert Reimann e David Cronin): mostrar menos no começo, quando o usuário ainda é novato, e revelar mais conforme (e se) ele avança.

Na Galena, depois de coletar as informações estruturadas de perfil, oferecemos a opção para o usuário complementá-lo com qualquer informação adicional importante: um texto livre, um link, um arquivo. Mas esse passo é completamente opcional e discreto, para não bloquear usuários sem interesse nisso. Assim, quem quer mais controle pode ir além, e quem prefere uma experiência mais direta segue sem fricção.

Essa combinação de orientação para quem precisa e flexibilidade para quem domina, cria uma experiência mais completa e adapta o produto de acordo com o interesse e investimento de cada usuário.



3. Mostre o seu raciocínio

Uma das chaves para criar boas experiências é construir confiança com o usuário. E a confiança em produtos digitais se forma quando o sistema parece competente, previsível e adaptado ao contexto.

Segundo Stephen Anderson, em Seductive Interaction Design, confiança é o que permite que o usuário relaxe e siga adiante, mesmo diante da incerteza. Don Norman, por sua vez, destaca a importância de sistemas que “se comportam como esperado”, o que só é possível quando o usuário entende o que está acontecendo.

O feedback bem estruturado, uma das 10 heurísticas clássicas de usabilidade definidas por Jakob Nielsen, também reforça esse ponto. O princípio é simples: o sistema deve deixar claro o que entendeu e o que está fazendo, para que o usuário nunca se sinta no escuro.

Transparência gera segurança, segurança gera confiança e confiança gera engajamento.

Os LLMs trouxeram desafios e oportunidades únicas nessa frente. O primeiro desafio vem da variedade praticamente infinita de inputs e outputs, o que torna inviável mapear todas as possibilidades ou prever todos os caminhos que o usuário pode seguir. Em muitos casos, isso impossibilita a criação de mensagens explicativas pré-definidas e até de textos estáticos de interface.

Por outro lado, a tecnologia oferece uma vantagem poderosa: a capacidade de gerar explicações sob medida, com base no histórico, contexto e intenção do usuário. Essa personalização, quando bem utilizada, pode criar um nível de confiança ainda maior do que seria possível com regras fixas. É uma forma de transformar incerteza em clareza.

O segundo desafio é mais sutil, mas igualmente importante: respostas geradas por IA podem deixar o usuário inseguro sobre as premissas usadas. Que informações foram consideradas? Faltou algo relevante? Você lembrou de tudo que te contei?

Mesmo antes dos LLMs, produtos já enfrentavam esse problema. É por isso que carrosséis da Netflix explicam suas sugestões com frases como “Porque você assistiu X”. A explicação da lógica por trás da recomendação ajuda a legitimar o resultado.

Esse problema se intensifica quando a resposta não é totalmente satisfatória. Pense em uma busca em um e-commerce: se você não encontra o que queria, é essencial que a interface confirme o termo pesquisado. Isso alivia a frustração reforçando que o sistema funcionou corretamente, mesmo que o resultado não tenha sido ideal.

Essa abordagem, aliás, não é nova nem exclusiva do digital. Ela é usada há anos no atendimento ao cliente, chamado de escuta ativa com validação empática. Quem já trabalhou com suporte sabe: o primeiro passo para uma boa experiência não é resolver, mas demonstrar que entendeu. O cliente precisa ouvir uma reformulação clara da dor antes de aceitar qualquer solução. Mesmo que a resposta não seja perfeita, só o fato de se sentir ouvido já melhora a percepção de qualidade. A pessoa sente que está sendo tratada com atenção e que está sendo feito todo o possível.

Em produtos digitais, a lógica é a mesma. Quando o usuário sente que o sistema entendeu sua intenção, ele aceita melhor a resposta, mesmo que ela não seja perfeita. O ChatGPT é um exemplo claro disso: parte do encantamento vem justamente da forma como ele estrutura o que foi compreendido antes de responder. Isso gera confiança de que ele entendeu e está respondendo a sua pergunta no melhor das suas capacidades.

Na Galena, quando finalizamos a coleta do perfil, a IA processa as respostas e apresenta um resumo do que foi entendido: objetivos, áreas de interesse, contexto atual, etc. Isso ajuda o usuário a perceber que o sistema entendeu o seu retrato e aumenta a confiança nas recomendações que são feitas. Depois dessa implementação, a percepção de qualidade nas recomendações subiu significativamente, sem nenhuma alteração de algoritmo. Apenas explicando melhor a linha de raciocínio usada.

Mostrar o raciocínio muda completamente a perspectiva do usuário. Quando ele entende as premissas e a lógica usadas, ele confia mais nos resultados, mesmo que não sejam perfeitos.



4. Permita revisar e corrigir

Mesmo com todo o avanço dos LLMs, as respostas nem sempre acertam de primeira. Isso não é um bug, é a natureza da IA generativa. O sistema opera com base em padrões e probabilidades, não em certezas absolutas. E isso significa que, mais cedo ou mais tarde, o usuário vai receber algo que não representa exatamente o que ele queria.

Nesse momento, o que define uma boa experiência é a capacidade de resposta do produto. O que o sistema faz quando erra? Como ele se comporta diante de uma resposta “quase certa”? E, principalmente: o que o usuário pode fazer quando sente que não foi totalmente compreendido?

Em produtos bem desenhados, os erros são tratados como oportunidades de refinamento. Isso exige que o produto permita revisão e correção sem atrito. Deixar o usuário ajustar o que foi entendido, sem ter que começar tudo do zero. Mostrar que o sistema foi pensado para lidar com falhas, mesmo parecendo contraintuitivo, aumenta a confiança.

Essa abordagem se apoia diretamente no trabalho de James Reason, no seu livro Human Error. A ideia central é que erros são inevitáveis e, por isso, sistemas robustos não devem tentar eliminar completamente os erros, mas sim tornam fácil reconhecê-los, contorná-los e aprender com eles. No contexto da IA, isso significa projetar experiências onde corrigir o rumo é parte natural da jornada, não uma exceção.

Ela também se conecta ao conceito de flexibilidade e eficiência de uso, outra das heurísticas de Nielsen. A ideia é permitir que o sistema funcione bem tanto para o fluxo principal quanto para exceções e ajustes. Em vez de forçar o usuário a aceitar um resultado imperfeito ou recomeçar a jornada, o produto deve oferecer formas rápidas de corrigir o que foi entendido. Isso respeita o tempo e a intenção do usuário, dois ativos valiosos em qualquer interação.

Mas é importante não esquecer que revisão demais pode gerar frustração. Quando não há limites, o usuário pode cair num loop de refinamentos sucessivos e nunca se sentir satisfeito. Por isso, a revisão precisa ser guiada. É preciso escolher os momentos certos para abrir essa opção e sempre começar com sugestões de ajustes antes de abrir espaço para inputs livres. Assim, o produto continua guiando o usuário sem tirar sua autonomia.

Na Galena, aplicamos esse conceito no final da criação de perfil. Após ter respondido e recebido o resumo do que foi entendido, o usuário pode revisar o que foi interpretado, alterar respostas ou corrigir o que foi entendido. Isso reduz o risco de frustração e usa o próprio usuário para fazer o produto funcionar melhor.

IA não precisa ser infalível, e sim ajustável. Pensar em edições e correções como parte do produto, e não como exceção, ajuda a absorver erros de forma leve e aumentar a qualidade geral da experiência.



5. Trate os resultados como entidades estruturadas

Uma das grandes vantagens da IA generativa é a flexibilidade. Ela pode produzir praticamente qualquer resposta, sob medida para o contexto. Por isso, o caminho mais fácil (e sedutor) ao desenhar uma funcionalidade com IA é deixar o LLM responder livremente, no formato que escolher.

A grande vantagem dessa abordagem é não precisar mapear e estruturar as respostas, mas, fazendo isso, desperdiçamos uma enorme oportunidade. Como o output é um texto desestruturado, fica muito difícil usá-lo para alimentar outras partes do produto, que em geral precisam de dados estruturados. Ou seja, o usuário recebe algo útil, mas que não pode ser usado em mais nenhum lugar.

O maior potencial está na combinação de forças. Usar a IA para gerar conteúdo com fluidez, mas garantir que o resultado possa ser interpretado, reaproveitado e evoluído pelo restante do sistema. Ao tratar outputs como objetos com propriedades claras, você cria um vocabulário que o sistema entende. Isso permite reaproveitar resultados em outras partes do produto, como filtros, relatórios, buscas, recomendações, cadastros, automações, etc. Um conteúdo que antes só existia como texto livre, agora pode acionar regras, alimentar interfaces ou influenciar decisões futuras. O sistema pode usar a inteligência da IA, sem precisar depender dela o tempo todo.

Isso também cria oportunidades para melhorar a forma como o conteúdo é consumido. Texto puro é ótimo para linguagem, mas é ruim para navegação, leitura dinâmica e tomada de decisão. Existe um motivo para as interfaces gráficas terem se tornado padrão na computação: visualizações ajudam a ver mais com menos esforço. Uma boa interface mostra, organiza, destaca e permite interações com mais precisão. Texto, por outro lado, exige muito mais do usuário.

Segundo a Teoria da Carga Cognitiva, de John Sweller, nossa memória de trabalho é limitada. E sistemas que exigem muito processamento mental, como ler, interpretar e reter múltiplas variáveis, travam a fluidez da experiência. Apresentar os outputs da IA de forma visual e estruturada reduz esse esforço. Com menos carga cognitiva, o usuário entende melhor e retém energia para continuar usando o produto.

O custo financeiro também é algo a ser considerado. IA pode ser cara. Se você precisa dela toda vez que for reusar, editar ou exibir o resultado, os custos podem deixar isso impraticável. Usar a IA quando necessário e sistemas mais eficientes quando não, é uma forma de manter a experiência fluida sem comprometer viabilidade.

Na Galena, ao final do mapeamento do perfil do usuário, ele é transformado em dados que se integram ao restante do sistema. Um dos pilares da Galena são as habilidades: usamos isso para buscar e recomendar conteúdos, interpretar cargos e trilhas de carreira, mapear competências, gerar relatórios e muito mais. Por isso, como resultado do perfil, nossa IA cria uma listagem estruturada de habilidades que o usuário já possui e quais são necessárias para seus objetivos. Isso garante que outras funcionalidades possam interagir com o perfil de forma consistente, sem depender da IA toda vez que o dado for reutilizado.

Tratar os resultados da IA como entidades estruturadas é o que permite combinar o melhor dos dois mundos: a inteligência adaptativa dos LLMs com a previsibilidade, a consistência e a integração de sistemas bem projetados.



Conclusão

Introduzir IA nos nossos produtos não é sobre reinventar tudo. É sobre entender o que essa nova tecnologia faz de melhor e como ela pode complementar sistemas e experiências que já funcionam bem.

IA é um mundo novo, mas as melhores decisões ainda são guiadas pelos mesmos fundamentos: clareza, previsibilidade, controle, confiança. Não precisamos começar do zero, mas sim aplicar o que já sabemos com inteligência, intencionalidade e abertura para explorar novos paradigmas, sem esquecer o que já aprendemos ao longo do caminho.

A tecnologia mudou, mas os produtos continuam sendo feitos para pessoas. E sobre pessoas, a gente já sabe bastante.

Felipe-Gressler_1910

CONSELHEIR@

Felipe Gressler

Cofundador e Chief Product Officer (CPO) da Galena, uma HR Tech e plataforma que viabiliza e promove o desenvolvimento profissional e a cultura de aprendizagem nas empresas. Formado em Arquitetura pela USP, Felipe é especialista em estratégia de produto e construção de negócios com foco em tecnologia e produtos digitais. Sua trajetória começou como designer de produto, evoluindo para a gestão de produtos, com experiência como Group Product Manager (GPM) no iFood e Head de Produto na Loggi. Seu percurso é marcado pela criação de produtos robustos e pela construção de negócios em torno dessas soluções.

LinkedIn
Twitter
Facebook
WhatsApp
Email

Quem também está com a gente

Empresas, Startups, Centros de Pesquisa e Investidores