A inteligência artificial chegou.
Não é preciso ser técnico para perceber que alguma coisa mudou.
Hoje, um motor de busca já acerta nos nossos desejos antes de termos tempo de os dizer.
Um algoritmo sugere um vídeo, outro mostra um produto, outro escreve um texto inteiro — e tudo parece funcionar com uma espécie de magia silenciosa.
Mas será mesmo magia?
O nosso convidado sabe que não. E sabe porquê.
Bernardo Caldas é uma das pessoas mais lúcidas que conheço sobre o tema.
Lidera equipas de dados e IA numa das maiores fintechs europeias, criou o projeto Data Science for Good, e tem pensado a fundo — com inteligência, mas também com alma — sobre os impactos reais da inteligência artificial no mundo onde vivemos.
Nesta conversa, começamos com uma pergunta simples, mas provocadora:
E se a IA te conhecesse tão bem como o teu melhor amigo?
Assustador? Fascinante? Ambos?
O Bernardo ajuda-nos a perceber porque é que esta tecnologia — que parece tão intuitiva — é, na verdade, o resultado de padrões.
Padrões de linguagem, de comportamento, de atenção.
A IA não “sabe”, não “sente”, não “pensa” no sentido humano — mas aprende a imitar tão bem que nós acreditamos.
E o problema começa aí.
Falamos do que distingue imitação de criatividade.
Do que está por trás dos modelos generativos que escrevem, desenham e respondem com uma fluidez que nos desconcerta.
E de como estes sistemas — criados para gerar conteúdo “credível” — não têm maneira de saber se estão a dizer a verdade.
Podem escrever um disparate com toda a segurança de um professor catedrático.
Mais à frente, mergulhamos na questão da responsabilidade.
Se a máquina erra — quem responde?
Se um algoritmo toma decisões médicas, jurídicas ou políticas — onde está o humano no processo?
Discutimos o impacto da IA nas profissões: não só nos trabalhos manuais, mas nos intelectuais.
Sim, programadores, consultores, copywriters, jornalistas — ninguém escapa.
O Bernardo diz-nos que o trabalho que sobrevive é aquele onde há contexto, empatia e julgamento.
Mas até os psicólogos estão em risco — e ele conta um estudo surpreendente que mostra como, em certos casos, as pessoas acham que um chatbot foi mais empático do que um terapeuta humano.
Depois passamos para o tema que mais me inquieta:
a economia da atenção.
Porque é que os nossos feeds estão cheios de raiva, medo e teorias da conspiração?
Porque é que a moderação desapareceu do radar?
A resposta, segundo o Bernardo, está na forma como os algoritmos são treinados: não para informar, mas para prender.
A verdade é irrelevante se a mentira for mais clicável.
E isto coloca a democracia em risco real.
A certa altura da conversa, ele diz uma coisa que me ficou:
“O maior perigo da IA não é o apocalipse das máquinas.
É deixarmos de acreditar em tudo.”
É esta a verdadeira crise: a erosão da confiança pública.
Não sabemos o que é real. Não sabemos em quem acreditar.
E se não confiamos em nada — também não conseguimos decidir nada em comum.
A democracia desliga-se.
Mas nem tudo é distopia.
O Bernardo também nos fala do lado esperançoso:
De como a IA, se bem pensada, pode ser inclusiva.
De como pode ajudar uma avó em Trás-os-Montes a resolver um problema complicado com linguagem natural.
De como pode aliviar tarefas mecânicas e devolver-nos o que há de mais humano: a conversa, a atenção, o sentido.
No fim, voltamos às emoções.
Pode uma IA sentir? Ter consciência? Vontade própria?
A resposta dele é clara: não.
E, curiosamente, isso até nos pode dar algum descanso.
Esta é uma conversa que não pretende fechar nada —
mas que abre muitas janelas para pensar o que vem aí.
E pensar, neste caso, é mesmo urgente.
Se gostares, partilha este episódio com alguém que acha que inteligência artificial é só “coisa de engenheiros”.
Ou com alguém que acha que já não há nada a fazer.
Porque há.
Mas temos de começar por perceber.
0:12
Ora, vivam bem vindos ao pergunta simples, o vosso podcast sobre comunicação?
Hoje vamos falar sobre máquinas que comunicam com pessoas ou pelo menos, que parecem comunicar com pessoas e parecem bastante espertas.
Tenho cá pergunta, como é que a inteligência artificial está a mudar a forma como comunicamos?
0:31
Estamos mesmo a ser substituídos por máquinas?
E, mais importante, o que é que é ainda nosso, só nosso?
No meio disto tudo, neste episódio de perguntas, sempre vamos falar daquilo que parece estar em todo o lado, mas que poucos conseguem explicar bem a inteligência artificial.
0:47
A inteligência artificial chegou.
É um facto.
Não é preciso ser técnico para perceber que alguma coisa mudou.
1:04
Hoje, um simples motor de busca como o Google já acerta nos nossos desejos, mesmo antes de termos colocado todos os termos que queremos pesquisar.
Um algoritmo que sugere um vídeo, outro que mostra um produto, outro escreve um texto inteiro e tudo parece funcionar como uma espécie de magia silenciosa.
1:22
Mas será que é mesmo magia esta coisa de inteligência artificial?
O nosso convidado sabe que não e sabe porquê.
Além disso, consegue explicar o porquê a quem não percebe nada deste assunto?
Bernardo Caldas é uma dessas pessoas, uma das mais lúcidas que conheço a falar sobre o tema.
1:40
Lidera equipas de dados e inteligência artificial numa das maiores fintech europeias.
Criou um projeto, data Science for good, e tem pensado no fundo com inteligência, mas também com alma sobre os impactos reais da inteligência artificial no mundo onde vivemos.
1:55
Nesta conversa, começamos com uma pergunta simples.
Mas provocadora, e se a inteligência artificial te conhecesse tão bem como o teu melhor amigo?
Assustador, fascinante.
Ambos.
O Bernardo, jura?
Dá nos a perceber porque é que esta tecnologia, que parece tão intuitiva, é, na realidade o resultado de padrões de milhões de padrões, padrões de linguagem, de comportamento, de atenção, a inteligência artificial.
2:22
Não sabe, não sente, não pensa.
No nosso sentido, no sentido humano.
Mas aprende a imitar tão bem que nós acabamos por acreditar.
E o problema começa aí.
Falamos do que distingue imitação de criatividade, do que está por trás dos modelos generativos que escrevem, desenham e respondem com uma fluidez que nos desconcerta e de como estes sistemas criados para gerar conteúdo credível não tem maneira de saber se estão a dizer a verdade.
2:49
Podem escrever um disparate gigante.
Com toda a segurança de um professor catedrático mais à frente, na conversa, mergulhamos na questão de responsabilidade, se a máquina erra, quem responde, se acerta.
Já sabemos que a máquina é muito boa, mas e se errar?
3:04
E se errar em processos críticos, se o algoritmo toma decisões médicas, jurídicas ou políticas?
Onde está o humano neste processo?
Discutimos o impacto da inteligência artificial nas profissões, não só nos trabalhos manuais, mas também nos intelectuais.
3:20
Sim, os programadores, os consultores, os copyrights, os jornalistas, ninguém escapa.
O Bernardo diz nos que o trabalho que sobrevive é aquele onde há contexto, empatia e julgamento.
Mas provavelmente até os psicólogos estão em risco, o que é uma realidade assustadora.
Ele fala de um estudo surpreendente que mostra como em certos casos.
3:39
As pessoas que estão a conversar com uma máquina, sem saber se é uma máquina ou um ser humano, que vão trocando à vez, mas que consideram que o chatbot, a máquina que está do outro lado, foi a final mais empática do que um terapeuta humano.
Falamos também de um dos temas que mais me inquieta, a economia da atenção.
3:56
Porque é que os nossos feeds das redes sociais estão cheios de raiva, de medo, de teorias, da conspiração?
Porque é que a moderação desapareceu do radar?
A resposta, segundo o Bernardo, está na forma como os algoritmos são treinados.
Não para informar, mas para prender, para prender a nossa atenção.
4:12
A verdade é irrelevante se a mentira for mais clicável, se ficamos mais tempo nas redes sociais.
É isso que coloca a democracia num risco real.
A certa altura desta conversa, ele diz uma coisa que me ficou na memória e citou o maior perigo da inteligência artificial não é o apocalipse das máquinas, é deixarmos de acreditar em tudo.
4:32
E esta é a verdadeira.
Crise da erosão da confiança pública.
Não sabemos o que é real, não sabemos em quem acreditar e se não confiarmos em nada, também não conseguimos decidir nada em comum e a democracia esfuma se mas nem tudo é distopia.
O Bernardo fala nos também do lado da Esperança, de como a inteligência artificial, se bem pensada, pode ser inclusiva, de como pode ajudar uma avó em trás os Montes a resolver um problema complicado, com linguagem natural do dia a dia, de como pode.
5:00
Aliviar tarefas mecânicas e devolver nos o que há de mais humano, a conversa, a atenção, o sentido.
No fim, voltamos às emoções, pode a inteligência artificial sentir, ter consciência, ter vontade própria?
A resposta dele é clara, não, não pode.
5:17
E, curiosamente, e se a termos, pode dar algum Descanso.
Esta é uma conversa que não pretende fechar nada, mas que abre muitas janelas para pensar o que vem aí ou que já aí está.
E pensar neste caso é mesmo urgente.
Se eu gostar, partilho este episódio com alguém que acha que a inteligência artificial é só uma coisa lá dos engenheiros ou com alguém que acha que já não há nada a fazer.
5:37
Porque há, mas temos de começar por compreender.
Viva Bernardo.
Caldas, aqui à minha frente está alguém que acredita que a Santa inteligência artificial não tem de ser um bicho Papão.
5:54
Pode ser algo que faz coisas boas por todos nós.
Lidera as equipas de dados e de inteligência artificial numa das maiores fintech europeias e criaste um projeto que se chama data sens for good.
Data sens, inteligência artificial dados para o melhor de de de todos nós.
6:12
Se a inteligência artificial te conhecesse tão bem como o teu melhor amigo, isto seria uma coisa fascinante ou uma coisa assustadora?
Começamos logo com perguntas fáceis, não é?
Eu acho que potencialmente assustador, porque para a inteligência artificial me conhecer tão bem como o meu melhor amigo, significava também que tinha acesso a uma quantidade de informação sobre mim que eu não sei se quero que alguém tenha acesso para além dos meus grandes amigos.
6:37
E por isso.
Desviamos de logo um bocadinho para a conversa, da nossa pegada digital, para a nossa presença online, para aquilo que é conhecido por isso.
Eu não não sou fã de um futuro em que a inteligência artificial me conheça tão bem como os meus melhores amigos.
Não é.
E, portanto, convém que a gente tenha a inteligência artificial lá no seu canto para aquilo que ela serve, para quem ainda não sabe.
6:57
E Eu Acredito que muita gente não sabe.
O que é a inteligência artificial?
Por palavras simples, como é que nós explicamos a isto?
Alguém que agora acabou de ligar este podcast e diz assim, inteligência artificial do que é que eles estão a?
Falar é uma pergunta ótima porque eu me pergunto a mesma coisa a mim próprio.
7:12
Eu acho que a grande dificuldade deste tema é que nós inventamos este nome, inteligência artificial, que nunca foi bem definido e, portanto, andamos todos aqui a dar opiniões e a fazer comentários sem perceber muito bem.
Se eu tivesse de tentar, ainda assim, definir de alguma forma.
A inteligência artificial opõem se àquilo que chamamos a programação mais tradicional.
7:31
Quando inventámos os computadores e os primeiros programas de computador, não havia inteligência nenhuma.
O computador fazia exatamente aquilo que nós mandávamos fazer e, portanto, descrevíamos passo a passo como uma receita de um bolo.
Como é que um determinado problema se resolve?
Se acontecer isto, logo aquilo.
Exatamente isso.
Dan, ainda me lembro dessa isso.
7:47
Dan e falso?
Exatamente.
É exatamente isso.
Isso é um programa normal de computador, e assim vivemos durante décadas.
O grande problema é que há uma grande percentagem das tarefas que nós recursávamos que um computador pudesse fazer, que não é fácil inventar um if DN, uma lista, um algoritmo que os conseguia resolver.
8:04
Tarefas como qualquer.
Coisa tão simples como se eu quiser fazer tradução.
Tradução parece um problema simples.
Eu devia ter um dicionário que eu tenho palavra a palavra e eu tenho a palavra na língua portuguesa, a palavra na língua inglesa, substituo, e qualquer pessoa que já tenha tentado fazer isto percebe.
Que isto dá uma desgraça de tradução.
8:21
É literal e, portanto, não interpreta sequer o sentido da linguagem e da palavra.
Exatamente, e mesmo EEE, que nem que vamos à sem sequer à semântica mais profunda.
A simples substituição de palavra palavra não vai sequer ser gramaticalmente válida na outra língua, provavelmente.
Agora, escrever um programa que diga então, como é que se faz tradução?
8:40
Tem de olhar para 23 palavras e traduzir grupos de 2 ou 3.
Como é que isto se faz?
É muito difícil.
E a grande dificuldade?
É que nós próprios não sabemos como é que fazemos tradução.
Nós nós adoramos dizer.
Eu, eu tenho 4 filhos.
Adoro dizer quando eles estão a falar comigo, então os mais velhos quando estão a estudar.
8:56
Que.
Enquanto eles não conseguirem explicar como é que fazem, determinada, como é que fazem determinada tarefa, não apercebem mesmo.
Por isso, saber explicar é sinal de compreensão.
Mas perante que eles não me ouçam, isso não é bem verdade, porque há muitas coisas que nós fazemos que não fazemos ideia.
Como é que as fazemos?
Traduzir é uma, cantar é outra.
9:12
Nós somos mesmo inteligentes?
Eu não IA tão longe, começando por mim próprio.
Não.
Não me arrogo de dizer que sou muito inteligente, mas brincando, efetivamente, há muitas coisas que nós fazemos e que fazemos que têm que conseguir explicar.
Isso é uma dificuldade para para computadores a ajudarem nos em determinadas tarefas, e por isso aparece uma área da computação que se dedica a conseguir resolver problemas sem que ninguém lhe diga como é que se faz, mas apenas a partir de exemplos.
9:41
Ou seja.
Se eu não sei traduzir, mas consigo mostrar vários exemplos de textos traduzidos?
No fundo é, olhe a máquina, isto era aquilo que a gente gostava, que tu conseguisses fazer isso.
Aqui está aquilo que eu estou a olhar, aqui está o resultado que eu gostava de obter e fazendo isto vezes suficientes.
9:58
A máquina está na altura.
Eu vou usar a expressão aprende intencionalmente, aprende a resolver aquela tarefa.
Então, mas isso é uma intuição, uma aprendizagem ou uma cópia descarada daquilo que nós estamos a fazer porque tu, por um lado, estás a mostrar os exemplos.
Eu acho que faz todo o sentido se a máquina aprender o padrão de como é que nós fazemos aquilo.
10:16
Por outro lado, o que me parece é que as inteligências artificiais da vida, se calhar é um preconceito meu ou os googles desta vida nos motores de busca.
Na realidade, o que eles fazem muito bem é corta e cola.
Eles são muito bons a fazer isto.
Onde é que está aqui essa Fronteira?
É que é.
10:32
É a outra pergunta boa.
O corta e cola não é tão binário como parece, porque quando nós entramos na discussão da criatividade, que é para onde estamos a caminhar, quer dizer, isto é mesmo novo.
Está a inventar, está mesmo a resolver ou está só a copiar e a e a fazer aqui um.
Uma alergia pura, pouco sofisticada.
10:49
A verdade é que essa essa definição daquilo que é a criação nova inteligência pura, resolver problemas a partir do zero.
A tal inteligência generativa.
A generativa até tem a ver com outra coisa, a generativa tem a ver com ser capaz de criar.
A.
A inteligência artificial tradicional era, se quisermos, quase discriminativa, não no sentido pejorativo de dizer que que está a discriminar pessoas, mas no sentido de agrupar, classificar, não é os exemplos clássicos, os primeiros que aparecem.
11:15
São sistemas que são capazes, por exemplo, de olhar para uma imagem médica, um raio XE, dizer está aqui um cancro ou não está.
O que eles estão a fazer é discriminar todas as imagens que veem em categorias e por isso era discriminativa.
Esta inteligência artificial agora é generativa, porque eu lhe digo que cria uma imagem de um cão, de uma praia a fazer qualquer coisa, e ela cria e aparece me uma coisa que não existia passa a existir, e por isso gerámos conteúdos gerámos, uma imagem, um som, um vídeo a que?
11:40
For algumas bem horríveis.
Algumas bem horríveis, cada vez melhores.
É isso, é que é o extraordinário e muito rapidamente.
É muito rapidamente que é aquilo que nos assusta, um bocadinho mais quando tentamos prever os efeitos de inteligência artificial no mundo, a que nós estamos habituados a que as tecnologias tenham ciclos de desenvolvimento de décadas e agora estamos a ver que em prazo de 6 meses, tudo fica de atualidade.
11:58
Porque a mim, o que me assusta é sim.
Eu até consigo fascinado se ficar fascinado com a ideia de que a inteligência artificial agora desenha um cão que mais parece um cavalo, ou um ou um cavalo que mais parece um camelo.
Amanhã aquilo já parece mesmo um cão.
E depois de amanhã, isto é um cão tão extraordinário como eu nunca vi desenhado.
12:17
E eu fiquei a pensar assim, mas espera lá.
Mas se isto consegue fazer isto, que é muito simples, o que é que conseguirá fazer na minha vida nas próximas semanas ou meses se a aceleração for imparável e rápida, como parece ser?
E é curioso porque a imagem é uma das áreas em que ainda estamos mais longe, porque o enfim a imagem e depois associado o vídeo.
12:39
Porque é difícil de fazer.
É difícil encontrar padrões porque há mais variedade aquilo onde aquilo por onde começámos.
Foi por texto os primeiros modelos de negligência artificial regenerativa, os que que falávamos.
O que faziam era criar texto muito credível e por isso, texto que parecia escolhido por pessoas.
12:56
Credível não quer dizer verdadeiro, não quer dizer verificável.
Quer dizer, credível, e é muito intencional a escolha da palavra.
Porque estes modelos na prática do que eu dizia da forma de ensinar, estes modelos que chamamos na gíria técnica treiná Los mesmo como se fossem animais que estamos AA domesticar o treino destes modelos faz se com estes tais exemplos de que eu falava a princípio para eu ensinar uma máquina a fazer texto que pareça texto de pessoas, o que eu faço é dar lhe exemplos de texto de pessoas e por isso a máquina aprende os padrões muito complicados da nossa linguagem e por isso não palavra a palavra, como no exemplo da tradução inicial, mas contextos completos.
13:31
Grandes aprende a criar texto que pareça credível e por isso vai aprender os padrões que nós usamos da maneira como construímos a linguagem, mas também o conteúdo que aparece refletido na linguagem em muitos casos.
Por exemplo, se eu fizer uma pergunta de um tema que aparece muito escrito na internet, que é a fonte de grande parte destes dados que são usados para estanar os modelos, quando ele começa a gerar uma resposta, a sequência de palavras que ele vai usar para responder à pergunta vai mimetizar aquilo que viu.
13:58
E, por isso, a probabilidade de ser verdadeira é.
Maior e faz mais sentido também e.
Normalmente faz mais sentido porque.
Aquela ordem das palavras para mim.
Foi estatisticamente mais provável, porque eu ali muitas vezes a máquina viu aquela sequência de palavras muitas vezes, e por isso, quando vir a capital de Portugal é vai responder Lisboa, porque viu muitos textos em que isso aparece escrito.
14:18
Mas se eu lhe perguntar qual é a capital da antena 1?
Que é uma pergunta que não faz sentido.
Mas ele responde ainda ele.
Vai responder, ainda assim, porquê?
Aí está a diferença entre a credibilidade e a verdade, porque o que ele vai aprender é, vai tentar dizer uma palavra qualquer, porque ele é sempre obrigado a escolher palavras para responder que ele ache que é credível naquele como está.
14:40
Isto tem a maior probabilidade.
E se a resposta for não há nenhuma paciência, porque ele tem de dizer qualquer coisa, porque é para isso que está, que está treinado.
Claro que agora já tentamos introduzir alguma sofisticação, como é.
Que como é que nós ensinamos a máquina a dizer não sei?
É uma pergunta muito, muito boa e muito, muito difícil de responder, porque idealmente para a máquina de aprender a dizer não sei, devia ter lido, não sei também há pouco.
15:05
Portanto, que nós conseguimos treinar as máquinas pelo positivo para dizer, é assim que nós fazemos as coisas, mas não conseguimos dizer lhes olha, neste momento, se tu não sabes, se tu não tens capacidade de encontrar, o melhor é dizer.
Olha sobre isto, eu não tenho nada a.
Dizer é é muito engraçado, porque a maneira como nós temos aprendido a lidar com estes sistemas é precisamente dar instruções desse tipo.
15:27
Eu costumo dizer que estes modelos têm uma particularidade relativamente a outras invenções humanas, na medida em que ninguém consegue prever o que é que estes modelos vão ser capazes de fazer quando os começa a criar, quando alguém inventa um motor, conceito de motor.
Não fica descansado com essa declaração.
15:43
Mas eu lamento.
Então, mas, mas.
Tu, Bernardo, que és um especialista nisto, olhando para o futuro, tu consegues ter enfim alguma ideia, alguma pista do que é que pode acontecer.
15:59
Não pode não ser exatamente o caminho, mas do que é que pode acontecer nos próximos anos.
Eu, eu já nem falo da.
Velocidade?
Sim, sim, eu, eu, eu consigo arriscar algumas previsões, mas quando eu digo que nós não percebemos exatamente o que é que vai acontecer, até mais básica, mais fundamental do que isso, e provavelmente mais inquietante, porque aquilo que eu estou a dizer é.
16:17
Quando alguém diz, vou pegar neste conjunto de texto, vou dar a um computador durante um ano ou durante meses, porque é destes períodos que estamos a falar.
Ele vai mastigar, mastigar, mastigar e no final vai me dizer, já aprendi o que tinha para aprender e a partir de agora podemos começar a interagir.
Pergunto a resposta, quando eu ligo a máquina, ponho lá os o texto todo e eu ligo a máquina.
16:35
Eu não consigo prever quão bo é que o computador vai ser igual à geração de imagem.
Quando eu ligo o computador para aprender a partir de imagens, como é que se faz imagens?
Eu não consigo prever quão bo é que vai ser e por isso há todo um processo.
Depois destes modelos serem criados, de os descobrir que é muito engraçado porque uma invenção normalmente nós sabemos o que é que ela vai dar, pode resultar ou não, mas temos um propósito para ela e aqui parece que há qualquer coisa que tem vida própria, com muitas aspas nesta nesta expressão que se calhar nós vamos descobrir quão boa é que ela é.
17:02
Porque é que eu estou a dar esta volta toda?
Porque uma das grandes divisões da comunidade científica hoje em dia é decidir se estes modelos têm capacidade de raciocínio efetiva ou não.
Se já pensam ou não pensam.
Se pensam mesmo ou não?
E esta, de novo, é uma discussão difícil de ter, porque pensar, raciocinar são expressões mal definidas e por isso, grande parte do trabalho é tentar arranjar uma definição com que concordamos todos.
17:23
Mas esta esta descoberta se os modelos são capazes de pensar, principalmente se são capazes de usar o conhecimento que têm em situações que nunca viram antes.
Portanto, terem uma criatividade e responderem a perguntas que nunca tinham sido feitas com base em experiência ou numa intuição do.
17:38
Futuro isso que, na prática, é uma característica da nossa inteligência.
E então, e tu estás de que lado?
A máquina já é suficientemente esperta e capaz de nos superar não na avaliação dos padrões e de dar respostas, mas de conseguir responder a perguntas per si melhor que nós.
17:58
Vou dar uma resposta mista, eu vou dizer que, por um lado, eu não acredito que haja raciocínio verdadeiramente original daquilo que vejo, daquilo que a investigação científica já mostra.
Sempre que tiramos estes modelos de suficientemente fora de pé para casos que eles nunca viram antes, AO seu desempenho baixa muito, muito, muito.
18:20
Mas, por outro lado, o desempenho atual já é suficiente para virar o nosso menor.
Ao contrário.
O que é que vai?
O que é que nos vai acontecer?
E, ou ou melhor, é assim, o que é que uma pessoa comum não és?
Tu precisa urgentemente de saber e de entender o que é que é esta ferramenta e o que é que isto vai mudar na nossa vida.
18:40
Vou dar mais um desviozinho.
Há uns tempos há uma conferência científica chamada neurips, onde iam os investigadores maiores de inteligência artificial e em que perguntavam aos investigadores que tinham essa conferência e a outras também para fazerem uma série de previsões sobre inteligência artificial.
19:00
Perguntavam, por exemplo, a que distância é que estávamos da chamada singularidade, do ponto em que as máquinas eram melhores do que nós em tudo e que se melhoravam a si próprias.
Como é que é essa singularidade?
Como é que é?
Ninguém sabe e nem a que tempo é que estamos.
Alguns especialistas diziam 100 anos, outros diziam 3 e, portanto, havia 11.
19:16
Dispersão nas previsões enorme.
Mas faziam outra pergunta que eu adorava, que basicamente era pedir para ordenarmos as profissões pela probabilidade de serem substituídas por inteligência artificial.
É um bom tópico.
E era muito engraçado porque nós vimos na no final dessa lista e, portanto, profissões com menor probabilidade de serem substituídas.
19:32
Víamos as profissões mais manuais, víamos cabeleireiros, víamos a construção civil.
E depois víamos uma profissão que era ser investigador, a inteligência artificial.
Eu acho esta história maravilhosa porque os próprios investigadores de inteligência artificial achavam que era quase tudo automatizável no mundo, menos o seu próprio trabalho.
19:51
Isso é inteligente, é super inteligente da parte deles.
Eu, se for estratégico, acho que estão a fazer um bom trabalho, mas eu acho que não é estratégico.
Eu acho que só revelam um viés que nós temos todos, e por isso é que dei esta volta para responder à tua pergunta.
Eu acho que a primeira coisa que é preciso resolver rapidamente na intuição das pessoas.
20:08
É que todo o trabalho de computador neste momento tem uma probabilidade enorme de ser substituída por inteligência artificial.
E por isso eu não estou a falar só de coisas repetitivas.
Não estou a dizer só preencher este documento a partir.
Não estou a dizer se eu tiver de gerar uma ideia de 10 nomes para um podcast, se eu pedir a um modelo de inteligência artificial suficientemente bom, quando eu comparo aquele resultado com uma pessoa média no ramo, não estou a falar de uma pessoa média geral.
20:38
Quando a seguir, é avaliado por pessoas que não fazem ideia de onde é que vem aquela lista?
A lista de inteligência artificial muitas vezes é avaliada com maior qualidade do que a do que a humana.
E quem diz para geração de nomes diz para produção de estratégias de empresas.
As consultoras, por exemplo, estão nervosíssimas as as mais importantes.
20:54
Não estou a falar daquelas mais básicas, estou a falar das consultoras, mesmo importantes, que têm as pessoas que são brilhantes na sua área.
Neste momento, quando o output é comparado com o do modelo, a diferença é baixa.
Estou a falar de advogados, estou a falar de médicos.
E por isso, todo aquele trabalho que até pode ser intelectual, mas que pode ser feito por interação com a informação no mundo digital, está brutalmente ameaçado.
21:15
Então posso perguntar te para ti, para ti, não para para esse Painel de de especialistas, que profissões é que estão mais em risco?
Ou ou ou quais são aquelas que nós salvamos?
Sim, são 2 perguntas muito diferentes.
Queres separá las?
21:31
Quero porque então vamos.
Começar quem é que quem é que matamos?
Explico porque é que quero separá las porque eu acho que há um.
Há um tema técnico, há um tema de sociedade, de decisão, em que onde é que queremos viver?
Nós podemos dizer que algumas tarefas em teoria, até podiam ser melhor realizadas por inteligência artificial, mas bem realizadas por inteligência artificial e nós escolhermos não o fazer.
21:50
Hum.
Até porque não.
Não me descansa quando eu estou a pensar num médico só com inteligência artificial.
Não sei se fico muito.
Descansado, mas porquê já agora?
Bom, quer dizer, primeiro acho que fundamentalmente, porque depois não tenho a quem pedir contas.
Certo, mas eu isso é um tema muito interessante, porque o tema da eu queria muito evitar usar expressões inglesas, mas não consigo evitar.
22:08
Há o há o tema da accountability, que é.
A responsabilidade de alguma forma e o tema de garantir que o médico está suficientemente investido na recomendação que está a dar porque sente o potencial de ano do seu erro.
Portanto, há uma ética além de um algoritmo de pensamento.
22:23
Mas eu nem IA tanto pela ética, que também é um problema, mas até dizia que o tema de pedir contas que nós temos todos e que eu acho que é o motivo certo para não gostar muito de inteligência artificial a automatizar certas decisões.
Pelo menos as mais sérias, não é pelo.
Menos as mais.
Sérias.
Então, então este robô vai sozinho cortar me aqui um pedaço da minha perna?
22:39
Não, claro que sei lá eu que se ele tem vontade de cortar só aquele pedacinho que era importante melhor do que qualquer outro, ou subitamente dizer este que ficava melhor era sem os 2 pés.
Mas é engraçado essa pergunta, porque se eu fizer a pergunta de outra forma, que é se eu mostrar um sistema de de cirurgia robótica.
22:57
Que acerta em 99,99% dos.
Casos está comprado?
E se eu comparar isso com o cirurgião, que é excelente no que faz, mas que tem 97?
Em princípio, nós poderíamos escolher a máquina.
Então eu eu posso pôr aqui a minha pergunta subversiva do dia?
23:14
Sim, isso é muito interessante, exceto se a máquina cada vez faz melhor e até melhor que o humano.
Um dia não faz bem, erra.
Isso e ninguém conseguir compreender, certo?
Como é que a máquina fez para errar o prato de certo?
Acordo e há uma caixa negra.
23:30
Mas nós não somos também caixas negras ao diabo, não é?
Quando eu, quando um médico faz uma asneira, eu lhe pergunto, porque é que ele fez uma asneira?
Ele, ele até é capaz de inventar uma justificação, porque nós somos muito bons a fazer isto.
Genericamente, nós, enquanto humanos, também somos máquinas de produção de texto credível, muito competentes, mas nem sempre verdadeiras.
23:46
Também este processo de autoanálise e de introspeção de nós conseguirmos explicar a alguém porque é que tomamos uma decisão.
É um.
É um exemplo ótimo porque a maior parte das vezes, o nosso processo de decisão é muito influenciado por intuição.
Não é por 11.
Sentimento de que eu acho que vai ser melhor por aqui.
É a nossa sensação, sim, mas.
24:02
Que temos dificuldade em explicar de onde é que ela vem?
Então, para ti?
Claramente, as máquinas se fizerem melhor que os seres humanos, de uma forma mais sistemática, mais rigorosa e com o melhor resultado para nós, matamos essa profissão.
Eu não vou por aí porque eu acho que faltam 2 coisas para fazer isso com tranquilidade.
24:18
A primeira, então, como?
É que nós podemos levantar 11 profissão.
Só falta tranquilidade.
Só para clarificar quem nos possa estar a ouvir, só chegado agora que isto só estamos a falar de profissão, senão de pessoas em concreto, a.
Pensar, então pergunta simples, convidou um robô para falar o que é que está aqui?
24:34
A passar, não é não, não.
O Bernardo é mesmo uma pessoa de carne e osso.
Eu sou, sou pelo menos tanto quanto consigo dizer.
Há 2 coisas que faltam.
A primeira é esta, é resolvemos o problema de da responsabilização.
O segundo problema é o problema da transparência de processo.
24:51
Mesmo que os humanos não tenham, os humanos são diversos.
E o que é que isso?
O que é que isso garante?
Garante que pelo menos o erro nunca é universal.
Ou seja, um cirurgião que faça um erro não fará o erro no mundo inteiro.
E é muito mau um cirurgião fazer um erro, mas o erro.
25:06
Está um dano mais limitado.
Isso o âmbito do seu erro está limitado.
Um dos grandes problemas da inteligência artificial é que amplifica e generaliza coisas boas, mas erros também.
Exemplo.
Um.
Robô que aprenda ou 11 sistema de IA que aprenda a fazer deteção de cancro a partir de raio x é muito bom que seja generalizado, porque um médico na sua vida vê o quê?
25:27
1000-2000, 10000.
Não faço ideia qual.
É que é a organesa, o computador tem milhões.
Sem limite, potencialmente.
E, portanto, pode ver todos os do mundo e dizer, há uma pessoa do Burkina fase o que tem o mesmo que há uma que uma pessoa em Portugal e por isso eu aprendi com aquele exemplo.
Mas esta mesma capacidade de universalizar o conhecimento também se traduz numa universalização do erro.
25:45
E por isso.
Até certo ponto, a minha exigência relativamente ao processo pelo qual a inteligência artificial chega a uma determinada conclusão é mais exigente do que o do humano.
Este é o ponto número 1.
O ponto número 2 da responsabilização tem precisamente a ver com o alinhamento de incentivos.
26:01
Nós estamos relativamente confortáveis.
Como não saber exatamente como é que o médico estudou?
Aprendeu, porque sabemos que se ele fizer asneira, a carreira dele acaba e por isso o incentivo do médico e o meu estão alinhados.
Se o médico fizer uma asneira, a carreira dele fica muito prejudicada.
26:18
Eu também fico muito prejudicado, mas estamos no mesmo barco, queremos que os 2 corra bem, há um equilíbrio.
Isso estamos.
Estamos o mesmo incentivo.
Eu não sei qual é o incentivo de máquina que não tem, porque o incentivo de máquina é minimizar o erro das coisas que aprendeu.
Mas se fizer uma asneira, não lhe acontece nada.
Nem nem sequer sente.
26:33
Que uma asneira não há, empatia não há.
Esse é o ponto, é.
Quer dizer, a máquina não tem empatia.
Não pode ser ainda que eu estou sempre a dar uma microbio na ferradura, e não é para fugir à pergunta.
Mas um dos temas de que eu gosto menos, uma das áreas de atuação de que eu gosto menos de inteligência artificial é na área da psicologia, dizem os grandes defensores de inteligência artificial.
26:55
Para tudo que eu estou a ser injusto, porque a verdade é que nós temos poucos psicólogos.
Os psicólogos são caros e por isso há uma grande percentagem da nossa população que não tem acesso ao tratamento psicológico, o que é um problema.
Há uma Barreira?
E por isso.
Eu arranjar uma forma de com um sistema de IA.
27:13
Generalizar o acesso é uma espécie de terapia.
É uma coisa boa.
Até aqui, parece nos bem.
Há de facto aqui uma dificuldade grande quando fazemos estudos e testes sobre a adoção das pessoas sobre este tipo de sistemas.
27:30
É que quando eu o peço, sem as pessoas saberem se têm à frente uma pessoa ou uma máquina, quando eu peço para avaliarem a empatia do terapeuta.
Seja ele quem for.
Seja ele quem for.
Portanto, eu basicamente ponho uma pessoa a ter 1 hora de conversa com um computador.
Portanto, é o que estão a falar por um por chat só até agora, porque novo vídeo ainda é mais difícil de resolver.
27:49
Ainda é fácil detetar quando é que um vídeo é gerado por IA?
Cada vez menos fácil, mas ainda é.
E por isso, para a experiência científica funcionar, faz se isto só contexto.
Portanto, tu estás a conversar, eu estou a conversar alguém do outro lado.
Pode ser uma máquina ou pode ser um terapeuta.
E tu não sabes?
Que já agora foi o teste que o Alan Turing?
28:05
Em 1950, inventou para decidir quando é que tínhamos chegado a inteligência artificial, o que?
Nos diz toring.
O que nos dizia, basicamente, é que uma máquina é inteligente.
Quando uma pessoa não conseguia distinguir se está a falar com uma máquina com humano, era basicamente a Barreira dele, que é uma Barreira já agora baixíssima.
Mas mas era uma primeira Barreira que já essa já de alguma forma ultrapassámos contexto, certamente com imagem também Alegria já que sim, e com vídeo.
28:25
Estamos muito perto com música ainda.
Agora, esta semana saiu um álbum que estava a ganhar imensa probabilidade no Spotify e que descobriram que tinha sido feito só por iá e, portanto, que a banda não existia.
E as pessoas estavam a ouvir alegremente, com bastante qualidade, avaliada e afinal, não existia.
28:41
Mas anda um bocadinho para trás.
No caso da terapia, quando se pôs as pessoas nesta experiência em que elas não sabiam se à frente tinham um psicólogo ou um sistema de IA, quando às pessoas para para avaliarem a empatia do tratamento que tinham recebido, os tratamentos de IA eram avaliados com maior empatia.
E por isso.
28:57
Mesmo a minha resposta, eu concordo que a empatia não existe, mas é uma crença.
Muito mais do que numa observação científica, porque na minha definição de empatia não cabe uma empatia aparente.
Ou seja, a empatia não está nos olhos de quem a vê, na minha opinião.
Mas quando se avalia a empatia pelos olhos de quem a vê, portanto, pelo pelo consumidor final.
29:15
O consumidor final prefere inteligência artificial.
E isso é muito.
Interessante.
Então, agora que nós já matamos os médicos e os psicólogos, certo?
O que é que o que é que fazemos?
Sobreviver aqui já?
Agora, só para não parecer que eu estou a matar se nas outras profissões e não incorrer no mesmo erro que os especialistas?
Uma das profissões mais ameaçadas é precisamente o desenvolvimento de código de programação de engenharia de softwares.
29:34
Portanto, a criação vai matar o criador.
Sim, claramente é muito interessante.
Ó diabo é EE virou se claramente, eu acho que é uma prova de que nós dominamos pouco a inteligência artificial é que se dominássemos muito bem, não nos estávamos a matar a nós.
Próprios, deixa me descansar.
Nós pelo menos aquela máquina tem ainda uma ficha elétrica, um botão que nos permite ainda ligar aquilo.
29:50
EE não deixar que a máquina persi, ganhe pernas.
EE vá por aí.
Fora ainda conseguimos desligar o nosso próprio computador, não conseguimos desligar os computadores dos outros e as e etcétera.
Sim.
Portanto, podemos estar no limiar do do não controlo do sistema dele, começar no fundo AAAA pensar por ele próprio em circuito fechado.
30:10
E de e de nós não compreendermos do que é no fundo, o que é que AO que é que as máquinas?
Portanto, o que tu estás a dizer?
Há bocadinho era que nós podíamos treinar as as máquinas, trazendo texto, trazendo linguagem, dizendo lhes até como é que funciona um psicólogo, um médico por aí fora ótimo, e a máquina está a fazer isto, mas que a máquina está a ter uma capacidade de desenvolver padrões muito rapidamente, até acima daquilo que nós, nós lá estamos como os mortais podiam pensar.
30:37
Pode dar, se o caso de subitamente, as máquinas inventarem lá um chinês delas próprias e elas rapidamente, numa linguagem só delas, das máquinas conseguirem falar tão rapidamente e reinventar uma nova linguagem, um novo universo e na ficção, dizer, Ah, estes humanos claramente são muito antiquados.
30:58
O melhor é nós continuarmos o nosso caminho e inventarmos aqui outras possibilidades.
Para não assustar demasiado, a minha resposta vai ser não, eu não acredito nesse cenário.
Mas não é pela incapacidade das máquinas falarem numa linguagem que nós não percebemos, porque isso já acontece.
Elas já falam numa linguagem que a gente não percebe os.
Computadores normais comunicam os componentes entre si numa linguagem própria.
31:18
Não é uma linguagem como nós a conhecemos.
Eu estou a usar a expressão linguagem de forma bastante livre.
Mas a verdade é, a interação elétrica entre componentes dentro de um computador não é percetível por um ser humano.
Nós não percebemos aquilo que é não é comunicação binária entre zeros e uns, a comunicação entre computadores através de protocolos, sei lá, estou a pensar, quando um servidor se liga a outro, não falam inglês nem português e, portanto, a comunicação de uma linguagem que nós já não dominamos não é o que me preocupa.
31:46
E agora vêm os quânticos, não?
É a pergunta?
Sim, sim, sim, potencialmente.
Os computadores quânticos, a grande dificuldade é que.
Nós temos o mundo tecnológico sobrevive também de muito marketing, de muito hype.
É sexy isso?
E, portanto, nós temos de ir inventando coisas novas e às vezes inventamos coisas novas que são verdadeiramente impactantes na sociedade, como Eu Acredito que é a inteligência artificial.
32:06
E às vezes inventamos coisas que são muito inúteis, como aquela mania dos NFTS, como há uns tempos, aqueles macacos digitais.
Bem, enfim, estou a reduzir isto demasiado, mas se as.
Pessoas compravam por centenas de de euros e que as tantas valorizavam.
Milhões de euros eram milhões de euros que alguns desses macacos mais famosos eram transacionados por milhões de euros.
Mas isso parece uma coisa, francamente.
32:22
Especulativa, claramente e morreu rapidamente.
É um sexo.
Sexo e é interessante e acabou?
Mas é sempre difícil porque a nossa mediação.
A mediação entre o nosso conhecimento e o mundo tecnológico é feita pelos vendedores desta tecnologia e, portanto, é muito difícil, anão ser que esteja por dentro, perceber o que é que é progresso real e o que é que não é progresso real.
32:37
Os computadores quânticos parecem ter um potencial enorme.
Nós estamos numa fase tão, tão, tão embrionária dos computadores quânticos que é para perceber o impacto possível, que é uma discussão que me parece um bocadinho extemporânea.
Mas eu, voltando à tua pergunta inicial, o que me preocupa não é a linguagem própria das máquinas, porque isso ela existe.
O que aquilo que deve preocupar é o tema da intenção.
32:55
Ou seja, aquilo que é preocupante nesse cenário da destruição das máquinas se juntarem para decidirem que os humanos, afinal, só estão aqui a ocupar espaço para nos.
Desligarem isso?
E, portanto, que nós, afinal, é que somos um empecilho.
Altamente ineficientes, consumimos demasiada, energia imprevisíveis.
Exatamente.
Coordenamo nos mal?
33:11
Não, não exatamente para que o cenário da da destruição da humanidade, porque nós, afinal só atrapalhamos pudesse acontecer.
Isso implicaria que houvesse 1111, intenção maior da parte da máquina própria que não é dada por nós.
E isso não existe e por isso não é esse cenário que me preocupa.
33:29
A máquina não ganha a vontade própria, a máquina faz aquilo que eu mando fazer, o grande.
Há 2 grandes problemas com isto.
O primeiro é que nós somos nós humanos somos genericamente maus a dizer aquilo que queremos.
É o primeiro problema.
E o segundo grande problema é que às vezes nós não conseguimos perceber as consequências daquilo que queremos.
33:47
Cuidado com o que desejas.
Isso.
O primeiro exemplo que dou para a primeira pergunta normalmente é se eu te pedir um café?
Estou com muito sono, precisava de um café, parece que de um café e tu generosamente levantas te sais aqui do estúdio e vais à máquina do café que por azar está avariada e a seguir vais à cantina e também não há e vês uma pessoa ao longe com um café na mão, tu vais e mandas aquela pessoa ao chão para lhe tirar o café e me trazer.
34:11
Não é aceitável, não é aceitável e eu não preciso de te dizer que não quero isso.
Quando eu te pedi um café, o que eu lhe disse não foi dá me um café?
Independentemente de todo o resto que possa acontecer no mundo, a.
Qualquer custo vai em busca do meu.
Café não foi isso que eu pedi.
Só que o que eu disse foi isso, o que eu disse foi.
34:26
Que dá me um café?
Portanto, implica uma interpretação moral também daquilo que nós.
Estamos AE, há um chão comum que nós temos em que quando eu digo dá me um café, eu espero que tu percebas.
Qual é que é o limite do meu pedido?
Da mesma forma que, se não quisermos ir para a violência física, eu não estou à espera que faças 1000 km me arranjar um café.
34:43
Estou mais generoso no absurdo da coisa e.
Portanto, há um.
Tema, quando o café chega, tu dizes isto agora está?
Frio, exatamente.
Há um tema em que, mesmo por eficiência de comunicação, eu não posso sempre dizer de todas as condições e de todas as alíneas do meu pedido.
Há uns implícitos.
Mas com a máquina difícil de garantir de novo por não perceber como é que ela funciona, que ela perceber os implícitos, este é o ponto número 1 e, portanto, quando eu lhe digo, maximiza a receita da minha empresa.
35:08
Eu não estou a dizer ou não devia estar a dizer.
Faz isso a todo o custo.
A menos que a mente humana que lá está por trás, pense isso ou queira isso.
Isso e que pode ser.
E se assim for, o problema de sociedade é outro, não é?
Como é que nós regulamos o uso para tentar evitar que isso não seja possível?
O problema volta a ser humano.
35:23
Isso, mas a minha preocupação primeira e quando eu penso em riscos, daí há o meu risco.
Não é de nós sermos todos mortos por robôs, nem sequer é das profissões desaparecerem todas que, entretanto, fugimos dessa pergunta, já vamos voltar?
Acredito ressuscitar algumas.
Isso que não acredito que seja esse o tema, o risco que eu prevejo.
É de consequências não intencionais de otimizações excessivas de determinados pontos.
35:43
Por exemplo, este exemplo que dava, que é, eu dou autonomia a um computador para maximizar a receita de uma determinada empresa e ele põe se a fazer uma série de ações, por exemplo, para inventar notícias falsas sobre a concorrência, para maximizar a sua cotação.
Bolsista EAE reparem que isto não é assim tão absurdo, porque já é muito possível com as ferramentas de hoje em dia.
E isto de fazer.
35:58
Eu diria que nós, neste momento, já estamos mergulhados num ambiente muito tóxico, com muitas fake news que estão deliberadamente criadas até que se calhar com a ajuda dessas ferramentas para conseguir que as pessoas vão lá.
Ficar EEE, garantir a nossa atenção.
Não claramente isso.
Isso certamente é um modelo de negócio, mas nós podemos expandir isso até onde quisermos.
36:14
E cada vez que a inteligência artificial ficar melhor, mais barato e mais eficaz será fazer isto.
Eu acho que estes riscos muito mais reais do risco da captura de atenção através da destruição da verdade, para mim é um risco muito mais real do que o risco da da do das máquinas de tomarem conta do mundo.
36:30
Então, EE já estás a falar do do, do da economia, da da da atenção?
E estes estes algoritmos que eu estão a mandar nos no nosso feed, no nosso Instagram, no nosso TikTok, no que, no que, no que for.
Como é que funcionam estes algoritmos?
36:47
Porque para mim é fascinante eu estar a ver 11 Instagram ou um TikTok que é especialmente interessante e viciante, que é aquilo vai me sugerindo coisas, 2 interesses, aquilo vai acertando e subitamente eu já estou a ver coisas que me estão mesmo a interessar.
37:02
Mas isso é precisamente um exemplo do tipo de aprendizagem de que falávamos ao princípio, porque se alguém se sentasse em Silicon Valley a desenhar como é que eu capturo a atenção dos Jorge?
Não se saberia dizer.
E, portanto, na o fria.
Então faz, mas.
Consegue dizer o que dizendo à máquina, experimenta coisas e vê o resultado e por isso ele experimenta 11 TikTok, experimenta um primeiro conteúdo e se resultar no sentido em que.
37:25
Paraste e olhaste em princípio ele gosta disto.
Em princípio gostou.
Se fizeste scroll e continuaste, não gostaste e recolhendo suficientes exemplos destes.
A máquina de novo aprende o padrão, aprende a distinguir aquilo que é conteúdo, de que gostas daquilo que é conteúdo, de que não gostas e por isso, a seguir como o seu objetivo de novo, definido pelo humano como o objetivo é maximizar o tempo que lá estás, porque quanto mais tempo lá estiver, mais anúncios vais ver, mais dinheiro, mais receita à empresa terá.
37:51
Então ela vai aprender muito bem e vai te dar conteúdo que gostas para lá ficar.
E é possível escapar a esta bolha de filtros?
O que é que eu quero dizer com isto?
Que é às tantas que nós estamos só a ver aquilo que nós gostamos ou que gostamos uma ou 2 vezes o risco de que deixemos de ver diversidade, outra coisa que possamos gostar?
38:06
É possível escapar a esta esta bolha?
Bem, eu eu acho que enquanto consumidores, nós continuamos a ter muita agência, não é?
E, portanto, continua a estar na nossa, no nosso espaço de ação, nós dizermos.
Eu não vou deixar que o TikTok seja a minha única fonte de informação acerca do mundo.
E por isso, isso é um lado de ação individual, diversificada.
Tem de haver uma decisão consciente.
38:23
E a palavra consciente aqui é importante porque.
O.
De novo, se estes algoritmos estão feitos para maximizar a minha atenção, eles vão jogar com as minhas fragilidades psicológicas sem ser intencionalmente, mas vão perceber as coisas que me viciam mais e usá las já agora, que nem sempre é coisas que nós gostamos.
Porque quando nós falamos do tema da polarização online é que muitas vezes aquilo que nos faz ficar mais tempo num Twitter no X.
38:43
É o que nos irrita.
É o que nos irrita.
E por isso, o conteúdo moderado é o pior de todos, porque 11 take normal, comum, desinteressa nos é desinteressante.
Uma posição extremada com que eu concordo, inflama uma posição de que eu discordo violentamente, faz me perder tempo a escrever uma resposta e insultar a pessoa que lá está.
39:01
E por isso a máquina aprende que a moderação é aborrecida e por isso, que a moderação deve ser enterrada no feed e que eu devo trazer à superfície o conteúdo extremado.
Repara, não é com má intenção.
Não há uma pessoa maléfica a massajar o seu ou afagar o seu gato enquanto pensa, como é que eu vou destruir a sociedade?
39:20
Este tipo de raciocínio que eu gostava de trazer.
Não há ninguém intencionalmente a dizer o quero destruir o mundo.
Alguém a dizer o quero ganhar mais dinheiro, o que não tem nenhum problema, e por isso quero mostrar mais anúncios e por isso quero ter as pessoas mais presas, mais tempo e por isso quero descobrir do que é que elas gostam e por isso vou lhe mostrar o que elas gostam e que não gostam, mesmo que não seja.
39:36
Verdade, mas não é perigoso dar à tecnologia?
A resposta?
Dar à tecnologia essa, esse livre arbítrio.
Quer dizer, No No fundo é assim, AAA inteligência artificial tem.
E os algoritmos têm uma intenção ou são apenas?
39:53
Executores de para mim, é claro que são executores.
Não há intenção, não há intenção.
De novo, é aquela que lhes é dada.
Mas voltamos ao tema de que é difícil, que é a intenção, ou que alguém que defina a intenção, tenha consequência, tenha noção das consequências da da sua intenção.
Porque o objetivo verdadeiro é que nós fiquemos naquela rede.
40:08
Se for preciso, até daqui a 3 meses, sim, só que.
Quando alguém está a pensar, ninguém está a pensar.
Nesse ponto extremado, voltamos ao voltemos ao exemplo mais simples, mas ao motor de busca que usaste.
Ainda há bocadinho como exemplo.
O motor de busca que consegue prever o conteúdo que me interessa é extremamente.
Útil?
Sim.
40:24
Dá me jeito.
Claro a dificuldade.
Inicial da internet era a contrária, era que o conteúdo era todo igual e que, portanto, como havia muito conteúdo disponível, não havia forma das pessoas encontrarem aquilo que procuravam.
Ou, em princípio, se eu quiser um restaurante para comer carne de Canguru, se for o caso disso, ou comer só alfaces, certo?
40:41
Em princípio, o Sant Google.
Vai nos vai nos dar aqui umas hipóteses.
Claro, claro que sim, é.
E é bom que ele descubra e que consiga ajudar até a distinguir aquilo que são sites de boa e má qualidade.
E aqueles que estão são feitos para me enganar daqueles que são vai ordenando, vai ordenando.
E, portanto, este esta intuição inicial é boa, não há nenhum problema.
40:58
E já agora, para não ser só catastrofista e para não ser só negativo relativamente à indústria da publicidade, é melhor que o anúncio que eu vejo seja de uma coisa que é relevante do que não ter nada a ver.
E por isso, se mostrarem anúncios de produtos que me que me interessam, isto é melhor.
41:14
Se eu tenho mesmo de levar com anúncios, é melhor que eles sejam um.
Que façam os estados.
Do que me estarem a mostrar vestidos cor de rosa que me interessam menos?
E por isso.
AA personalização dos anúncios não é má só por si, não é má intrinsecamente, e por isso alguém que diga vou fazer um algoritmo que descobre que anúncios é que são relevantes para determinada pessoa, não está errado por si só, mas de facto, quando alguém diz a métrica que eu quero otimizar.
41:39
É a receita que eu consigo extrair desta pessoa.
E a consequência disso, explícita ou implícita, é, eu quero manter lá aqui presa o mais o máximo de tempo possível.
Então aqui temos um problema, só que descobrir isto de novo, descobrir enquanto consumidores, estamos a ser manipulados sem intenção muitas vezes, mas que estamos a ser de alguma forma aliciados com conteúdo que nos interessa para lá ficarmos mais tempo.
42:00
É difícil descobrir que eu estou a ser exposto a isto e ainda mais difícil a um regulador potencial que normalmente a nossa solução é dizer, vamos regular?
O regulador potencial de descobrir onde é que isto está a acontecer, como é que está a acontecer, como é que a máquina funciona, não há grande solução real.
Então, se tu é, é, é é curioso porque se o conteúdo mais polarizado, portanto em princípio mais polémico, se provoca mais reação.
42:26
Mesmo que mentira.
Mesmo que mentira, Oo não, não há aqui nenhum filtro, nenhuma curadoria sequer do que é que está a acontecer.
Como é que se protege a democracia?
Destes algoritmos que estão a produzir coisas com o objetivo de criar atenção e reação.
42:44
EEE.
Nós temos essa frágil coisa que é a democracia, onde provavelmente o caminho é para conseguirmos consenso do que é que é fundamental na nossa vida e não discussões parvas sobre coisas que têm muito pouco interesse.
Eu até acho, acho que há riscos grandes para a democracia com o aparecimento de inteligência artificial.
43:07
Mas até acho que o risco maior é, de facto, aquilo de que falávamos, que é o risco da desconfiança.
O grande problema é que a democracia assenta numa confiança partilhada nas instituições, que não são só as instituições de decisão, são também as instituições de comunicação, como até há umas décadas atrás, não muitas, até há uma década atrás.
43:31
O acesso à informação era mediado pelos órgãos de comunicação social e, de novo, havia muitas pessoas envolvidas no processo de determinar o que é que era mais verdade ou menos verdade, tentando não binarizar a verdade, porque nem toda a verdade é é óbvia.
A agenda editorial estava distribuída por vários órgãos e por vários autonomias diferentes.
43:49
Isso e, portanto, ainda assim, a maioria aproximava se bastante da factualidade.
Quando nós delegamos nas redes sociais o acesso à informação, nós perdemos isso.
Agora, as pessoas não são estúpidas genericamente e, portanto, as pessoas a partir da primeira, segunda, terceira vez em que acreditam numa coisa que depois, afinal, não era verdade.
44:08
O que acontece não é que elas passem a acreditar em tudo.
É o contrário, é que deixem de acreditar.
Em nada.
E, portanto, passam a achar que é tudo falso e que não há maneira de chegar à verdade e, por isso é tudo irrelevante.
E isso é péssimo.
E isto é que é o risco verdadeiro para mim da democracia, é que nós.
Não temos solução técnica boa para a deteção da verdade.
44:26
Ou seja, não é só por maldade que as redes sociais não têm filtros de verdade e não é só por uma maximização de receita.
Até porque, se isso fosse verdade, nós podemos fazer uma solução que a mim me agrada bastante tecnicamente e que ainda não desisti dela.
Que é.
Nós podemos pensar, podemos imaginar um mundo em que nós próprios usamos uma espécie de um escudo digital de dizer, eu não quero ver diretamente o que o TikTok me dá.
44:48
Quero que isto passe por um filtro que sou eu, que sou o dono dele, em que me tira fora aquele que é mentira.
Por isso se houvesse uma solução fácil.
Para distinguir a verdade ou é mentira?
No mundo digital, nós podíamos comprar esse produto.
Podia haver uma empresa que dizia eu ofereço te um produto que faz isso, tu compras?
E por isso, ficas.
Protegido que quando alguém te mandar alguma coisa no WhatsApp, que é mentira, eu vou te dizer, isso é mentira.
45:05
Há uma curadoria no fundo só.
Que isso é muito difícil de fazer, porque distinguir a verdade, mentira é muito difícil.
E mesmo na comunicação social do jornalismo, fazer isso implica muito trabalho, implica a validação de uma série de e as pessoas?
Fascinam se por uma boa história, independentemente dela de ser verdadeira.
Claro, todos.
E por isso, para mim, o grande risco para a democracia é este, é o risco da desconfiança generalizada e por isso a mim preocupa me bastante.
45:25
Como é que nós recuperamos?
Eu acho que há uma componente técnica neste trabalho que é como é que recuperamos a confiança?
Por exemplo, como é que eu ajudo um sistema a distinguir de que é um vídeo falso, de um vídeo verdadeiro?
E nós temos algumas formas técnicas de fazer isto, porque já agora não é só com deteção, porque como estes sistemas estão treinados para produzirem conteúdo igual àquilo que viram.
45:44
Por natureza, vão cada vez fazer conteúdo mais parecido com aquele que é real e, portanto, só olhando para o conteúdo não é possível.
Então não podemos usar Oo pelo do cão para tratar a própria doença do cão, isto é, o pôr a inteligência artificial ela própria AA caçar esses.
Como?
Como dizia gato e rato e não funciona muito bem na prática, por exemplo, no ensino isto fala se muito.
46:03
Porquê?
Porque os alunos normalmente são muito rápidos a descobrirem maneiras de trabalharem menos, como todos os humanos.
São estudos preguiçosos por natureza.
Só que os alunos têm essa capacidade especialmente afinada.
E, portanto, quando apareces uma coisa como um ChatGPT, isto é ideal para fazer qualquer trabalho num professor de filosofia que me diga, faz me um ensaio sobre a Alegria da caverna.
46:23
Tu vais lá, é?
Quer dizer, eu, em vez de estar a ler a Alegria da caverna, estar a perceber o que é que o pode Alegria dizer com aquilo, eu chego ao chat GPTE, diz faz me isto e portanto, No No no cenário há 2 anos atrás ainda tinha corrigido português do Brasil, português de Portugal.
Hoje em dia nem isso.
E por isso o que é que e.
O resultado normalmente é bom.
Quer dizer, esse é, é.
46:38
Certamente melhor do que a média de um aluno.
Não é porque, de facto, nós podemos dizer que se calhar, vou te dar conversa das profissões para o genial, para aquele um em 8000008 biliões não é melhor a inteligência artificial, mas.
Para a média, mas para a média?
Certamente, portanto, os alunos imediatamente adotaram o que é que os professores fizeram?
46:57
Dizer, vou arranjar software.
Como havia aquele software de plágio para?
Vos apanhar para vos apanhar.
Todos os estudos que.
Existem mostram que isto é uma desgraça, que não são apanhados, que é muito fácil de lhes dar a volta é chegar lá e mudar 4 palavras.
Os alunos também aprendem e começam a introduzir 5 erros ortográficos de propósito, só para garantir que a máquina não os apanha e, portanto, essa é uma guerra mais ou menos perdida.
47:19
Eu estou muito convencido que nós vamos ter de voltar a escolher em quem é que alegamos a confiança e com isto quer dizer, se eu arranjar alguma maneira técnica EE existem, por exemplo, de fazer certificação de conteúdo, dizer, este vídeo foi filmado por esta máquina de filmar que pertence à RTPE que estava nestas coordenadas.
47:39
Neste dia a esta hora, e se eu arranjar maneira de?
Gravar não sei quem e se eu arranjar?
Maneira de gravar esta informação de forma a que o garanta que não é manipulável e isto é um problema que tecnicamente é possível de resolver.
É uma impressão.
Digital é uma impressão digital, uma marca de sim.
O problema é que é da verdade daquela que é capturável por imagem e, portanto, aquela que é a objetiva, factual pura.
47:59
Mas essa não é toda a verdade, nem toda a verdade.
Nós conseguimos reduzir lá isso.
Mas conseguimos cruzar, cruzar essa mas.
Podemos dar alguma forma, pelo menos começar a retirar aquilo que é aquela manipulação óbvia de dizer, esta pessoa teve neste dia aquela hora ou sei lá, o nosso primeiro-ministro disse isto no parlamento e que é muito fácil de chegar um vídeo do nosso primeiro-ministro a cantar o sei lá o hino do Sporting.
48:19
E isso hoje é muito fácil de fazer.
Que não existe o?
Hino do Sporting que não.
Existe não o hino, sim, não, não, mas, mas conseguir colocar uma pessoa a fazer e a dizer uma coisa que ela nunca fez ou nunca.
Isso é trivial?
Isso é absolutamente trivial, trivial.
Principalmente se o.
Temos um problema.
Não, claro que temos, então.
48:35
Mas mas o problema já é, já é de hoje relembrar aquele caso de um deputado de um partido político que foi apanhado com umas malinhas no seu gabinete no parlamento e foi apanhado a seguir por câmaras de segurança no aeroporto, a retirar essas malas.
Tudo alegadamente, evidentemente, mas quando foi confrontado, a primeira defesa dele foi, isto foi gerado por inteligência artificial e, portanto, isto mesmo para a justiça é um problema, porque o nosso meio de obtenção de prova, neste momento, depende de acreditarmos nenhumas coisas.
49:00
E repara que a imagem já era frágil.
Já tínhamos, isto é Photoshop, já tínhamos isto já era, já era um, já era um termo frequente.
Esta imagem não é real, é Photoshop.
E agora é verdade também para vídeo, é verdade para som e para voz.
E por isso.
É mais ou menos trivial fazer um vídeo de uma pessoa a fazer ou a dizer uma coisa que nunca fez ou disse.
49:19
O que nós precisamos, na minha opinião, é de arranjar maneira de distinguir esse conteúdo daquele conteúdo que foi captado por instituições em que confiamos.
E por isso é que também me disseram, não, não, isto foi a minha Câmara.
Eu, enquanto cidadão, posso atribuir.
Maior veracidade é isso do que se for um vídeo que me aparece no Twitter que vem de um telefone e vídeo de um telefone já me parece mais fácil de manipular e por isso nós tecnicamente podemos começar a tentar resolver o problema da proveniência do conteúdo e.
49:43
E com isso?
Tentar resolver alguma de desconfiança não vai resolver tudo, mas é.
É 11 avenida possível?
Olha, nós discutimos muitas vezes a questão.
A tecnologia está claramente AA andar muito mais mais rápido que as pessoas.
Discutimos sempre muito a literacia, mas a mim preocupa me, as pessoas que.
50:00
Que não tem essas ferramentas.
Estou a pensar até nas pessoas mais velhas.
Sim, essas pessoas vão vão estar neste jogo ou vão pura e simplesmente ser excluídas e colocadas à margem?
Deixa me ser um bocadinho otimista aqui.
Até quando me perguntam sobre o impacto de da inteligência artificial na educação EE me mostram ideias de começarem a ensinar logo alunos muito rapidamente a começarem a usar a inteligência artificial, ideia pela qual eu não tenho muita simpatia.
50:27
O meu motivo é precisamente este, é que a inteligência artificial é feita para não precisar de manual de instruções.
E pode ser usada para o bem.
Não, claro, EE, mas eu acho que um dos principais motivos é exatamente este, é que a tecnologia normal precisa de ser aprendida e por.
Isso.
Pessoas com mais facilidade de aprender tecnologia têm mais facilidade e isso cria desigualdade.
50:44
A inteligência artificial fala a nossa linguagem.
Democratizou vai democratizar o acesso às coisas.
Potencialmente sim, porque se eu puder, se, se a linguagem de comunicação é o português ou o inglês.
É a minha linguagem.
É a minha linguagem.
Portanto, não sou eu que aprendo a língua da máquina.
Não sou.
Não sou eu que aprendo a mexer no smartphone.
50:59
É ele que aprende a interagir comigo.
E isso?
É tanto assustador como é Equalizador de oportunidades.
E por isso eu pensar, uma pessoa idosa em trás os Montes a fazer OIRS hoje em dia, que tem uma dificuldade enorme, mas se pudesse ligar pelo número de telefone até eu e ter 11 agente idoso em Lisboa?
51:15
Não, não, não, não é isso.
E ninguém entende aqueles quadros EE não sei quê.
E os e os códigos e aquilo?
Sim, sim, sim, ainda não há aquilo.
Não há de fé, a gente diz, em princípio, espero que seja eu.
Acho que sim e depois esperamos a validação da Santa à de tributária.
Exatamente a qual a sua declaração está à válida.
51:31
Ufa.
Não vai pagar este ano.
Ufa.
Processo muito, mas, mas, mas é, mas é um processo.
Quer dizer, não é fácil, não para ninguém, não.
É?
Claro que sim.
Contabilistas não é não e.
Isso e que não percebo exatamente quais é que são as regras todas que devíamos perceber e que não o algoritmo.
Isso, o próprio algoritmo está por trás.
51:48
Mas pensar que podemos ter uma pessoa, um número de telefone para qual um idoso pode ligar a dizer, eu recebi isto de pensão e tenho isto, tenho este pessoa a meu cargo e et cetera, e há uma interpretação e alguém está a transformar aquilo.
Isto pode ser o tremendo de oportunidades.
E por isso.
Há um lado para mim que me descansa bastante em ter uma tecnologia que não precisa de processo de aprendizagem.
52:09
Eu acho que pode ser ótimo e é um bom exemplo de como é que pode ser usada para.
Bem, olha, nós estamos praticamente a fechar a nossa conversa.
Há uma última Fronteira que me interessa muito falar à volta da tecnologia da das inteligências, que é emoções e consciência, certo?
Que é, para mim, a última Fronteira daquilo que pode tornar isto mais, mais humano ou menos ou menos humano, a inteligência artificial.
52:32
Pode ganhar a capacidade de compreender as emoções humanas, já não digo de sentir.
Não, pois porque a pergunta da compreensão, eu acho que a resposta é sim, na medida em que as emoções humanas têm impacto real na maneira como nós agimos, mesmo que não seja fácil.
52:49
Novo também não é fácil para nós.
Às vezes, quando vamos para aquelas categorias de emoções, dizemos exatamente qual é aquela que estamos a sentir.
Isto é frustração.
Deixamos com os psicólogos.
Claro, não é exatamente.
E há quem esteja mais treinado a fazer essa categorização do que nós sendo também não é uma ciência totalmente exata, não é?
Nós podemos ir 2 psicólogos diferentes que nos dizem que são coisas ligeiramente diferentes, como na medicina, já agora sou casado com uma médica que me destrói sempre que eu digo aquilo.
53:09
Não é uma ciência exata, mas eu estou muito convencido do que estou a dizer.
Mas.
Mas voltando à à pergunta, eu acho que é pelo menos AA deteção da emoção.
Não tenho, não tenho muita dificuldade técnica e por isso eu perceber que esta pessoa ficou triste.
53:25
É possível já agora, o Facebook fez uma experiência há 8 anos à volta disto muito interessante sobre isto, em que mostrou que quando mostrava o conteúdo mais triste às pessoas, as publicações seguintes que elas faziam eram mais tristes e por isso já não é um tema só de compreensão de emoção.
Já é um tema de manipulação de emoção também, que é muito interessante.
53:43
Mas isto para dizer, eu acho que é muito, é muito simples, de alguma forma, ter uma máquina que deteta uma emoção humana quando ela está ligada a uma ação, a uma comunicação dessa pessoa, se é consciente, se percebe a génese ou a fonte dessa emoção, é onde eu de repente desligo completamente do mundo da ficção científica.
54:04
E acho que isso é tudo um conjunto de disparates tremendo.
Acho que não há nenhum mundo próximo e mesmo conceptual.
Em que possamos ter uma máquina a ganhar consciência, vontade própria, intenção própria.
Nós não fazemos ideia de como é que somos.
54:22
Pode acontecer por acaso, mas nós não fazemos ideia de como é que isso acontece.
Connosco de onde é que vem as nossas vontades?
De quanto diz isto é quimicamente é, é, é quimicamente definido quanto, isto é que é impacto nosso.
E entramos na discussão de livre arbítrio, nós sabemos tão.
Pouco.
Para vir com esta ideia de que agora de repentimento, estávamos aqui a propor um computador, a ler muito texto, que de repente ficou consciente.
54:41
Não vá esta a chamada não é a Alckmin.
Razer.
Não é navalha de Alckmin que a explicação mais simples normalmente é mais verdadeira.
A explicação de máquinas com consciência não é claramente a mais simples e não é aquela que eu compro.
Olha que mundo queres tu construir com tudo aquilo que tu sabes e que conheces sobre as máquinas e sobre a inteligência artificial e sobre o futuro?
54:58
Eu, eu.
É uma pergunta muito difícil.
Eu acho que há um.
Há um lado que me preocupa muito que esta tal equalização de oportunidades.
EE por isso, garantir que as condições de partida não definem a vida das pessoas.
Por isso em mim importa me muito a inteligência artificial e educação.
55:15
Importa me muito a inteligência artificial na saúde, porque são 2 áreas em que há uma desigualdade brutal no acesso à qualidade e que por isso também me importa muito investir aí também me importa muito investir em.
Em que os trabalhos das pessoas tenham sentido e por isso a mim não me assusta muito, sendo um bocadinho até mais arrojado.
55:36
A mim não me assusta muito este mundo em que nós acabamos com algumas das profissões que verdadeiramente são quase escravatura e são e são, não são realizadoras da pessoa e por isso a mim não me importa nada.
Quando estou no meu trabalho normal e estou a fazer um processo de automação qualquer dizer esta tarefa desaparece porque eu não sou crente que nós sejamos executores de tarefas, só mesmo no nosso trabalho, os nossos trabalhos.
55:56
É uma teoria económica, gira porque é uma conversa muito maior.
Os nossos trabalhos não são conjuntos de tarefas se muitas vezes.
Parecem, sim.
Mas também são muito mais vezes aquilo que não vemos, que é a qual, entre essas tarefas, aquilo que liga uma tarefa à outra, a conversa que temos de ter para que a seguir consigamos definir a intenção verdadeira do produto que estamos a criar ou do programa que estamos a fazer, o que, o que for.
56:14
Mas o nosso processo de compreensão daquilo que o nosso trabalho também é muito fraco, é muito limitado e por isso parece, nos acho que vai estar a automatizar do que há na prática.
Portanto, não sabemos nada sobre nada.
Não sabemos muito pouco sobre tudo?
Sim, não sabemos nada sobre nada que eu acho que é uma consequência também é 11 conclusão filosófica já com alguns milénios.
Aproveita e não mostras esta nossa conversa à tua mulher, só para evitar que ela descubra que, afinal, os médicos podem.
56:36
Já sabe, já sabe, já sabe, já sabe.
Discutem isso tantas vezes, mas a médica de família tem uma coisa belíssima na profissão, que é precisamente este trabalho de descobrir o que é que é preciso ser, cuidado.
Mesmo que o doente não o consiga dizer.
É uma curadora, no fundo é.
Mais do que só uma resolvedora de problemas técnicos, biológicos, do da, da pessoa que tenha.
56:55
A fazer bem da última e mais difícil das perguntas.
Obrigado, verdade.
Caldas, muito obrigado, viu?
Foi um gosto.
Pode estar aqui o segredo para sobreviver às máquinas, a curadoria humana, escolher o melhor e evitar o pior.
Nada mais nem nada menos que exercer a autonomia e o livre arbítrio até para a semana.