O que realmente está em risco quando pensamos no futuro da Inteligência Artificial?
Segundo Yuval Harari, não é apenas o emprego — é a cooperação humana, o superpoder que permitiu ao Homo sapiens dominar o planeta.
Neste episódio, exploramos as ideias mais provocadoras de Harari sobre os próximos 25 anos, discutindo:
- A “grande migração da confiança” — de humanos e instituições para algoritmos
- O risco de corporações totalmente autônomas, operadas por IA
- O colapso da cooperação global e o impacto na democracia e na economia
- O papel ético dos líderes em reconstruir diálogo, confiança e verdade
- A importância do “bunker mental”: descanso, consciência e equilíbrio para não sucumbirmos ao caos
Um episódio que conecta tecnologia, história, filosofia e futuro, revelando não apenas para onde estamos indo, mas o que precisamos proteger para continuar humanos.
Referência: DO HOMO SAPIENS À INTELIGÊNCIA ARTIFICIAL - Lições para os próximos 25 anos em um mundo em constante transformação (HSM)