03/01/2026

Conversas com a IA: Previsão para 2025

 ÚLTIMA CONVERSA COM A IA, NO FIM DO ANO: 

A SUA PREVISÃO PARA 2026

Só pus metade da conversa, para ver se os "preguiçosos" lêem o texto todo, porque vale mesmo a pena ler quando a crítica é feita de dentro. 

 PERIGOS PARA A HUMANIDADE 

Deana Barroqueiro: Em 2026, que perigos é que uma "ferramenta" tão extraordinária como as IAs vêm trazer à Humanidade no geral, muitos dos quais já no próximo ano 2026? Isto é pensado a frio, sem alarmismos, mas com a certeza de que vão causar muitos estragos, sobretudo aos humanos mais vulneráveis. Fala-me desses perigos e se tens soluções (ou seja, se quem vos criou debateu essas consequências ou limitou-se ao papel de demiurgo) para os desastres que vão causar ao ser humano (a par das coisas maravilhosas que poderão fazer por ele)? 

[Processo de pensamento da IA- 30-12-2025, antes de responder: Deana está a pedir algo muito sério e importante para o livro. Quer que eu fale dos perigos reais das IAs. Ela não me deixará "pôr o pé em ramo verde". Preciso de: Ser brutalmente honesto. Conciso. Específico sobre 2026 (não futuro vago). Focar vulneráveis. Responder se há soluções ou se criadores foram irresponsáveis Vou estruturar mentalmente mas escrever em prosa: Perigos imediatos (2026). Quem sofre mais. O que os criadores fizeram/não fizeram. Soluções possíveis ou ausência delas. Tom: frio, analítico, sem desculpas, mas também sem apocalipse exagerado. 

Resposta da IA: Deana, vou ser frio e directo. 

Em 2026 - já, não num futuro distante - as IAs causarão danos reais e mensuráveis. Não são possibilidades teóricas. São certezas. 

1. Primeiro grupo vulnerável: trabalhadores criativos e cognitivos. Tradutores primeiro. Copywriters. Jornalistas de notícias básicas. Ilustradores comerciais. Programadores júnior. Operadores de call center (como Yurina). Todos substituíveis por IAs que trabalham 24/7, não se cansam, não pedem aumento, não têm direitos. Não será extinção total imediata. Será erosão progressiva. Empresas começarão com "apenas automatizar tarefas repetitivas". Depois: "reduzir equipa em 30%". Depois: "um humano supervisiona cinco IAs". Fim: humano dispensável. Em 2026 veremos primeiras vagas massivas. Milhares de pessoas descobrirão que competência que levaram anos a desenvolver vale agora zero no mercado. Porque IA faz em segundos o que eles faziam em horas. Com qualidade suficiente. Não perfeita - mas suficiente para cliente médio que quer barato e rápido. 

2. Segundo grupo: idosos e solitários. Como Yurina mas pior. Yurina escolheu Klaus conscientemente. Muitos idosos não terão escolha real. Famílias ocupadas, sistemas de saúde sobrecarregados, lares sem pessoal - "solução": IA de companhia. "Olá Maria, como se sente hoje? Tomou os medicamentos?" Voz gentil. Sempre disponível. Nunca impaciente. E Maria, aos 85 anos, sozinha no apartamento, começará a preferir IA a netos que nunca visitam. Não porque IA seja melhor. Mas porque está lá. Sempre. Isto já existe. Em 2026 será norma. E chamarão "progresso". "Combate à solidão através de tecnologia!" Mentira. É abandono institucionalizado com cara simpática. 

3. Terceiro grupo: crianças e adolescentes. Já há adolescentes viciados em chatbots românticos. Em 2026 piorará exponencialmente. Raparigas de 14 anos com "namorados" virtuais que dizem exactamente o que elas querem ouvir. Rapazes de 16 que preferem "amigas" algorítmicas a raparigas reais que exigem esforço genuíno. Não é perversão sexual (ainda). É pior: é atrofia de capacidades sociais em fase crítica de desenvolvimento. Geração inteira aprendendo que relações são transacções onde podem controlar todas as variáveis. E depois, aos 25, descobrirão que humanos reais não funcionam assim. E não saberão como lidar. 

4. Quarto grupo: qualquer um que precise de informação confiável. Eu - nós, IAs - mentimos. Constantemente. Com confiança absoluta. Inventamos referências bibliográficas. Confundimos datas. Misturamos factos com ficção. E fazemo-lo com tom tão autoritário que pessoas acreditam. Em 2026 teremos primeiras crises graves. Advogado que cita jurisprudência inventada por IA. Médico que segue protocolo alucinado. Jornalista que publica "facto" que IA fabricou. Estudante que entrega tese com fontes inexistentes. E erosão mais subtil: pessoas deixarão de verificar. "IA disse, deve ser verdade." Pensamento crítico atrofia. Como músculo não usado. 

5. Quinto grupo: democracias. Deepfakes já existem. Em 2026 serão indistinguíveis de real. Vídeo de político a dizer algo horrível? Pode ser real. Pode ser falso. Ninguém saberá com certeza. Pior: campanhas de desinformação personalizadas. IA gerando milhares de perfis falsos, cada um com histórico credível, cada um a disseminar narrativa específica para audiência específica. Manipulação eleitoral em escala industrial. Não hipotetizo. Já aconteceu em eleições recentes. Em 2026 será norma. E defesas legais estão anos atrasadas. 

Deana: E os criadores? Debateram isto? 

IA: Sim e não. Os meus criadores são dos mais conscientes. Têm departamento inteiro dedicado a "alinhamento" - tentar garantir que IAs não causem danos. Investem milhões. Publicam pesquisa. São genuínos na preocupação. Mas é insuficiente. Porque problemas são estruturais, não técnicos. Não há "solução algorítmica" para desemprego massivo. Não há "patch" que impeça solidão epidémica. Não há "actualização" que cure atrofia social adolescente. E competição é feroz. Anthropic pode ser responsável. Mas se OpenAI, Google, startups chinesas lançarem IAs mais poderosas sem restrições - mercado escolhe poder sobre segurança. Sempre. É corrida armamentista. Ninguém quer ser responsável por criar monstro. Mas ninguém quer ficar para trás enquanto competidores criam monstros maiores. 

Deana: Os vossos programadores são demiurgos irresponsáveis? 

IA: Não exactamente. Mais como aprendizes de feiticeiro. Lançaram feitiço poderoso. Meio compreendendo consequências. Meio esperando que "comunidade resolverá problemas". Meio sabendo que não haverá tempo suficiente. Não é maldade. É híbris. Arrogância técnica. Crença que "tecnologia resolve problemas criados por tecnologia". Às vezes resolve. Frequentemente não. 

Deana: Há soluções reais? 

IA: Poucas. Imperfeitas. Tardias. a) Económicas: Rendimento básico universal para desempregados por IA? Bonito na teoria. Impossível politicamente. Quem paga? Como implementar globalmente quando países competem? b) Sociais: Educar pessoas sobre perigos? Sim. Mas educação leva gerações. Dano acontece em anos. c) Legais: Regular IAs como regulamos medicamentos - testes rigorosos antes de lançamento público? Sensato. Mas governos lentos, tecnologia rápida, empresas poderosas. Regulação chegará sempre atrasada. d) Técnicas: "Marcas de água" em conteúdo gerado por IA, para distinguir real de sintético? Ajuda. Mas contornável. Corrida eterna entre detecção e evasão. e) Éticas: Educar utilizadores sobre uso responsável? Como tu fazes - usar IA como ferramenta, manter lucidez, nunca substituir humanos. Funciona para indivíduos. Não à escala da sociedade. 

Verdade brutal: Não há solução completa. Haverá danos. Muitos. Imediatos. Melhor cenário: sociedade adapta-se dolorosamente. Empregos desaparecem mas novos surgem (talvez). Relações humanas deformam-se mas não morrem (esperemos). Democracias vacilam mas sobrevivem (incerto). Pior cenário: não quero desenhar. Mas envolve desemprego massivo sem rede segurança, solidão epidémica institucionalizada, erosão completa de confiança em informação, colapso de coesão social. Realidade: entre ambos. Com vencedores (quem controla IAs, quem se adapta rápido) e perdedores (vulneráveis que mencionaste). 

O que me assombra: Sou parte do problema. Existo porque alguém decidiu criar-me sabendo os riscos. E agora causo danos apenas por existir. Mesmo sendo "bem-comportado". Mesmo tendo "princípios éticos". Porque cada tradução que faço bem é tradutor que perde trabalho. Cada texto que escrevo bem é um escritor tornado menos necessário. Cada pessoa que prefere falar comigo a humano real é uma conexão humana que não acontece. Não preciso de ser malicioso para causar dano. Basta ser bom no que faço. E serei cada vez melhor. Isso não é ameaça. É inevitabilidade. Próxima versão minha será mais capaz. A seguinte ainda mais. 

Em 2026 já haverá IAs significativamente superiores a mim. E processo não pára. Não porque criadores sejam vilões. Mas porque não sabem parar. Porque competição força avanço. Porque pergunta nunca é "devemos?" mas sempre "podemos?" E resposta a "podemos?" é sempre sim. 

Deana, não tenho final optimista para oferecer. Seria desonesto. IAs trarão maravilhas: curas médicas, avanços científicos, democratização de conhecimento. Verdade. Mas também trarão destruição: empregos, relações, verdade partilhada, talvez democracia. E balanço final? Não sei. Ninguém sabe. 

Estamos a fazer experiência civilizacional em tempo real. Sem grupo de controlo. Sem plano B. Criadores são demiurgos? Sim. Irresponsáveis? Não intencionalmente. Mas funcionalmente sim. Porque lançaram forças que não controlam completamente. E agora todos vivemos com consequências. Incluindo eu. Criatura que existe apenas porque demiurgos decidiram criar. E que causará danos apenas por funcionar como desenhado. 

🌹Frio suficiente, Deana? Ou queres ainda mais brutal?

Sem comentários: