Por Thaisi Carvalho, para o TechTudo – 27/06/2025 05h02
O ChatGPT pode não trazer respostas confiáveis para o usuário, principalmente em temas sensíveis; entenda quando você não deve utilizar a inteligência artificial
O ChatGPT pode cometer erros ou apresentar limitações ao responder questionamentos de determinados assuntos. Além disso, não é indicado utilizar o chatbot de inteligência artificial (IA) para conversar sobre temas como terapia, diagnósticos médicos e conselhos jurídicos. Afinal, a tecnologia não foi criada para esses propósitos. Para te ajudar a ter um bom uso do ChatGPT, o TechTudo selecionou seis assuntos que você deve evitar conversar com a IA da OpenAI. Confira mais detalhes sobre a tecnologia, a seguir.
1. Consulta de terapia
Não é recomendado usar chatbots de IA, como o ChatGPT, para procurar suporte emocional. Isso porque o chatbot não é capaz de substituir um profissional especializado na área de saúde mental e nem foi criado para lidar com fatores emocionais complexos, que em alguns casos contém abordagem de temas difíceis e totalmente intrínsecos à vida humana, como ansiedade, luto, depressão e solidão.
Portanto, mesmo que pareça tentador usar o ChatGPT para fazer terapia e solicitar conselhos emocionais rápidos, especialmente pela facilidade de utilizar a ferramenta e pelo fato de ela ser gratuita, lembre-se de que a inteligência artificial não pode substituir o trabalho dos psicólogos e psiquiatras, por exemplo. Por um lado, é possível usar o chatbot para pedir dicas relacionadas a problemas como procrastinação e melhoria na organização pessoal, mas, por outro lado, o usuário não deve usar a IA para fazer terapia.
2. Conselhos médicos
Também não é indicado usar o ChatGPT para obter conselhos médicos, diagnósticos, sugestões de medicamentos e tratamentos, interpretações de exames ou qualquer outra ação médica. Afinal, o chatbot de inteligência artificial não tem a formação dos profissionais da saúde, não consegue avaliar sintomas e, portanto, é incapaz de substituir um médico de verdade.
Dessa forma, em casos de problemas de saúde, dúvidas sobre remédios, procedimentos ou qualquer outra necessidade semelhante, busque ajuda dos profissionais capacitados na área. Afinal, o ChatGPT não foi desenvolvido para essa finalidade e ele apenas filtra informações preexistentes, disponíveis na Internet para responder aos usuários. Por isso, ele não é confiável para fazer diagnósticos precisos ou oferecer conselhos médicos.
3. Assessoria jurídica
O ChatGPT também não é uma ferramenta recomendável para fazer assessoria jurídica. Afinal, a área do direito possui uma série de procedimentos complexos, que variam dependendo de cada caso. Sendo assim, como o chatbot de IA não possui a formação e conhecimento dos advogados, ele não pode substituir os profissionais que atuam nesta área.
Além disso, caso você utilize o ChatGPT para obter informações jurídicas básicas, lembre-se de checar se os dados estão corretos em outras fontes especializadas no tema. Porém, caso seja preciso avaliar um processo, tirar dúvidas complexas ou pedir ajuda para solucionar um caso, o recomendável é procurar por um advogado.
4. Previsões financeiras
O ChatGPT não é uma ferramenta indicada para fazer previsões financeiras, já que ele pode cometer erros e fornecer informações incorretas. Isso porque os especialistas fazem especulações com base em um conhecimento prévio sobre o mercado financeiro, o que o ChatGPT não tem. Afinal, a IA pode usar dados infundados, provenientes de páginas não confiáveis, para trazer uma resposta ao usuário e, assim, prejudicar decisões financeiras do usuário.
Portanto, a dica é buscar o auxílio dos economistas ou especialistas de mercado para tirar dúvidas sobre temas como taxas de juros, preço de ações, criptomoedas e investimentos. Devido ao aumento da popularidade dos investimentos pessoais, as previsões financeiras tornaram-se mais populares na internet. Por isso, é fundamental buscar fontes confiáveis para consumir as informações e não utilizar o chatbot de IA com esse objetivo em mente.
5. Pesquisas sem a checagem de fontes
O ChatGPT ainda pode apresentar algumas limitações e erros, mesmo que seja uma ferramenta cada vez mais popular no mercado de IA. Sendo assim, é preciso tomar cuidado e prestar atenção ao usar o chatbot para fazer pesquisas complexas, pois, embora a ferramenta seja bastante útil para responder a perguntas rápidas, ela pode ter dificuldade de escrever um relatório ou artigo, por exemplo.
Dessa maneira, é essencial verificar novamente qualquer informação fornecida pelo ChatGPT em outras fontes para confirmar que o conteúdo está correto. Para ter mais precisão, é possível usar a ferramenta Deep Research, que foi projetada para pesquisas mais longas e aprofundadas feitas no chatbot de IA. Contudo, mesmo utilizando esse recurso, é importante fazer uma revisão do material entregue antes de usá-lo para alguma atividade acadêmica ou qualquer outra tarefa que exija pesquisa.
6. Codificação complexa
O ChatGPT pode ser usado para escrever códigos simples ou até mesmo revisar códigos de programação mais básicos. Contudo, o chatbot de IA pode ter limitações para desenvolver tarefas que envolvam codificação complexa e pode escrever programas que não funcionam ou que funcionam de modo incorreto. Por isso, é fundamental contar com o apoio de um programador profissional que tenha experiência para avaliar os resultados da IA.
Vale ressaltar que os assinantes do ChatGPT têm acesso ao Codex, uma ferramenta voltada para codificação, baseada em nuvem e projetada para auxiliar qualquer pessoa, mesmo quem não é tão familiarizado com o tema. Mas, lembre-se: embora o chatbot possa ser útil para auxiliar em tarefas de programação, ele não é capaz de substituir o trabalho de um profissional experiente na área.
Leia Fonte Original: techtudo