00:00:12:24 - 00:00:13:20 Ou dádiva? 00:00:13:20 - 00:00:17:22 Bem vindos ao pergunta simples ou voz pública sobre comunicação? 00:00:18:06 - 00:00:20:19 Aproveitem este episódio que não tarda nada 00:00:21:06 - 00:00:24:05 e um computador robô em que está a fazer perguntas simples 00:00:24:15 - 00:00:29:01 a um robô perguntador que interpela um outro robô correspondente. 00:00:29:11 - 00:00:32:23 Tudo a uma velocidade estonteante onde a máquina perguntador 00:00:33:00 - 00:00:36:11 dispara 1000 perguntas por segundo e o computador do outro lado 00:00:36:12 - 00:00:39:24 responde com tudo na ponta da língua de silício. 00:00:40:00 - 00:00:44:19 Pois claro e claro, os ouvintes também têm de ser máquinas para acompanhar o ritmo, 00:00:44:19 - 00:00:48:12 para interpretar bits e bytes das máquinas que fazem comunicação. 00:00:49:15 - 00:00:51:21 Ufa! Não sei se gosto disto. 00:00:51:21 - 00:00:55:10 Preciso de pessoas de humanos lentos, falíveis e, principalmente, 00:00:55:10 - 00:00:59:01 imprevisíveis, criativos, generosos e empáticos. 00:00:59:11 - 00:01:03:22 Este é um programa sobre as máquinas que falam e sonham ser inteligentes 00:01:03:22 - 00:01:05:09 e sobre os seres humanos 00:01:05:09 - 00:01:08:20 que são inteligentes, mas que ainda lutam por se entenderem. 00:01:10:05 - 00:01:12:15 E não vos diz Eu sou o robô 00:01:12:15 - 00:01:16:07 clone do Jorge, porque ele está ali na praia a gozar a vida. 00:01:16:23 - 00:01:19:02 Ou então no desemprego, porque se tornou inútil. 00:01:19:19 - 00:01:23:11 Não se preocupem em subscrever o programa porque eu já sei tudo sobre voz, 00:01:23:18 - 00:01:27:02 onde escutam um programa, que horas os temas preferem, os que não gostam 00:01:27:07 - 00:01:30:12 e por isso decidi subscrever vos automaticamente no Spotify. 00:01:30:12 - 00:01:31:23 Mas outras aplicações? 00:01:31:23 - 00:01:34:12 Afinal, vós humanos, já disseram que sim. 00:01:34:12 - 00:01:37:07 Aquelas irritantes listas que saltam no ecrã 00:01:37:18 - 00:01:40:19 a dizer que aceitam os amistosos e inofensivos cookies 00:01:41:10 - 00:01:44:11 e assim alguém cuida das nossas preferências 00:01:44:11 - 00:01:47:13 nos próximos anos, sabendo tudo sobre a vossa vida. 00:01:48:04 - 00:01:52:02 Afinal, o migradas não é o download, também não é o da TVI. 00:01:52:14 - 00:01:55:05 E essa maquininha chamada telemóvel 00:01:55:05 - 00:01:57:13 inteligente que tem agora na sua mão. 00:01:58:07 - 00:01:58:19 Parabéns! 00:01:59:18 - 00:02:01:22 O episódio é assuste. 00:02:02:06 - 00:02:03:11 O anime se 00:02:13:08 - 00:02:13:22 houve um tempo 00:02:13:22 - 00:02:16:22 em que os animais falavam o tempo das fábulas, 00:02:17:05 - 00:02:19:17 o tempo em que os animais se comportavam como humanos, 00:02:20:03 - 00:02:21:10 dizendo coisas que os escritores 00:02:21:10 - 00:02:24:10 punham na sua boca, na boca dos patos, das raposas, dos burros, 00:02:24:21 - 00:02:27:23 para não ofender os humanos que se comportavam da mesma forma. 00:02:28:10 - 00:02:31:11 O triunfo dos porcos é provavelmente a mais saborosa 00:02:31:11 - 00:02:34:01 metáfora que me ocorre da nossa vida em sociedade. 00:02:34:17 - 00:02:36:00 Isto no mundo das fábulas. 00:02:36:00 - 00:02:38:20 Agora estamos no tempo em que os computadores também decidiram 00:02:38:20 - 00:02:41:14 começar a falar e falar na forma escrita, 00:02:41:21 - 00:02:45:16 a falar, imitando a voz humana, a falar, imitando a nossa imagem. 00:02:45:16 - 00:02:46:20 Mas não só. 00:02:46:20 - 00:02:49:23 Os computadores estão agora a imitar as nossas pinturas magistrais. 00:02:49:23 - 00:02:51:20 Os Picassos, os da Alice. 00:02:51:20 - 00:02:53:16 É o nosso poesia maior, um Camões. 00:02:53:16 - 00:02:55:01 Um som eletrônico. 00:02:55:01 - 00:02:59:11 Será imitação ou mera estatística de palavras e cores? 00:02:59:19 - 00:03:02:12 Qualquer um de nós pode ir a um computador e pedir 00:03:02:21 - 00:03:06:09 a esses vários programas de internet que por agora aparecem, que pinte 00:03:06:16 - 00:03:09:21 a nossa fotografia com cores e técnicas de um pintor famoso. 00:03:10:02 - 00:03:13:18 O Picasso pode ser o que nos escreva um relatório sobre a vida selvagem 00:03:13:18 - 00:03:15:04 na Serra da Estrela. 00:03:15:04 - 00:03:18:14 E os computadores escrevem porque estão cheios de informação 00:03:18:24 - 00:03:21:23 e porque foram treinados a adivinhar estatisticamente 00:03:22:07 - 00:03:26:01 as palavras que estão antes e depois daquela que escreveu. 00:03:26:07 - 00:03:29:24 É o caso do chamado e agora popular chato CGTP. 00:03:30:09 - 00:03:33:20 Será isto o primeiro vislumbre da chamada inteligência artificial 00:03:34:03 - 00:03:38:03 ou um mero truque de magia destas calculadoras avançadas? 00:03:38:20 - 00:03:41:16 Esta história da inteligência artificial está a complicar me os nervos. 00:03:42:01 - 00:03:44:20 Por um lado, fascina com todo o seu imenso potencial 00:03:44:20 - 00:03:47:19 de resolver os nossos velhos problemas humanos. 00:03:48:03 - 00:03:52:05 Por outro lado, assusta me pelo potencial de criar 1000 outros problemas 00:03:52:14 - 00:03:55:16 que não existem hoje em dia, com 1000 génios nos computadores 00:03:55:24 - 00:03:59:17 a tentar encontrar o Santo Graal da inteligência artificial, mas nenhum 00:03:59:17 - 00:04:03:03 ainda conseguir sequer compreender como funciona o cérebro de uma mosca. 00:04:03:15 - 00:04:05:24 Foi munido com esta sexta de dúvidas 00:04:05:24 - 00:04:08:07 que fui bater à porta de Mário Gaspar da Silva. 00:04:08:08 - 00:04:10:17 Ele é professor do Instituto Superior Técnico de Lisboa. 00:04:11:01 - 00:04:15:07 É um estudioso dos temas da linguagem natural nos sistemas informáticos. 00:04:15:17 - 00:04:17:17 E detalhe muito importante. 00:04:17:17 - 00:04:20:09 Presidente da Comissão de Ética do Instituto. 00:04:21:01 - 00:04:25:05 E porque estas conversas de máquinas que falam e que alegadamente pensam 00:04:25:17 - 00:04:29:21 não é só uma coisa de porcas e parafusos, é também sobre propósito, 00:04:30:07 - 00:04:35:13 utilidade e delicadas fronteiras éticas. 00:04:37:01 - 00:04:37:07 Eu sou 00:04:37:07 - 00:04:40:11 professor de sistemas de informação e tenho. 00:04:40:11 - 00:04:45:02 Nos últimos anos tenho focado na parte de engenharia de sistemas, 00:04:45:02 - 00:04:48:06 no que respeita a vertentes e análise de texto. 00:04:49:04 - 00:04:51:20 Portanto, a informação é textual. 00:04:51:21 - 00:04:54:11 Obviamente que lidamos com toda e misturamos todas. 00:04:54:12 - 00:04:58:09 Integramos todas, mas sem dar mais atenção à vertente 00:04:59:13 - 00:05:00:06 textual. 00:05:00:06 - 00:05:03:11 Desde os motores de pesquisa 00:05:03:11 - 00:05:05:12 aos sistemas de gestão documental 00:05:06:16 - 00:05:09:15 até modernamente 00:05:09:15 - 00:05:13:04 tratamentos, mas ao mais alto nível, porque nós tentamos também 00:05:14:03 - 00:05:16:03 a nossa atividade de investigação 00:05:16:20 - 00:05:20:16 estar a, digamos, onde a tecnologia nos permitir. 00:05:20:18 - 00:05:24:06 Não é com a tecnologia de cada momento e, portanto, nos últimos anos 00:05:25:11 - 00:05:27:05 avançamos para 00:05:27:16 - 00:05:31:08 coisas mais vagas, como a análise dos seus sentimentos 00:05:31:08 - 00:05:33:12 e emoções, a desinformação 00:05:34:13 - 00:05:38:13 que que já estão, digamos, um pouco para além daquilo que era 00:05:38:13 - 00:05:42:00 o objetivo inicial, que era mais, mais lógico, mais exato 00:05:42:03 - 00:05:47:01 e passámos a ser muito mais estatísticos a forma de tratar e olhar para o mundo. 00:05:47:04 - 00:05:51:12 Então como é que as máquinas podem ter emoções e sentimentos? 00:05:51:12 - 00:05:53:07 Eu pensava que isso era uma coisa exclusiva. 00:05:53:07 - 00:05:56:02 Só só de nós dois, que aqui estamos e de quem está a ouvir. 00:05:58:19 - 00:06:01:13 Neste momento, que eu saiba, não podem ter emoções e sentimentos. 00:06:01:21 - 00:06:05:22 O que eu estava a referir era a análise de emoções e sentimentos e, 00:06:05:22 - 00:06:09:05 portanto, é possível treinar uma máquina 00:06:10:02 - 00:06:15:12 para detetar a sentimentos, quer 00:06:16:14 - 00:06:20:22 pela linguagem, pelo uso de certas palavras que correspondem a sentimentos 00:06:20:23 - 00:06:26:23 e adjetivos que têm um pendor negativo, enquanto outros têm um pendor positivo 00:06:27:18 - 00:06:30:02 ou expressões, 00:06:30:02 - 00:06:32:13 portanto, faciais, essencial para nós. 00:06:33:09 - 00:06:35:23 Nós nos comunicamos 00:06:35:23 - 00:06:38:04 e a comunicação, como nós 00:06:38:19 - 00:06:42:04 por nós, humanos, sentimos emoções na comunicação com as emoções. 00:06:42:12 - 00:06:48:08 E, portanto, se nós fizemos uma máquina no meio a analisar a comunicação, 00:06:49:08 - 00:06:51:11 se a emoção será transmitida 00:06:51:11 - 00:06:56:00 através dessa informação, seremos, em princípio, capazes de tentar. 00:06:56:05 - 00:06:57:24 Isso não é. Perigoso. 00:06:59:04 - 00:07:01:14 E é perigoso 00:07:01:14 - 00:07:02:15 como todas as. 00:07:02:15 - 00:07:05:07 Como todas as tecnologias, 00:07:05:07 - 00:07:08:11 todas as tecnologias são, digamos, uma espada de dois gumes. 00:07:08:11 - 00:07:12:06 Ao lado positivo e o lado negativo. 00:07:12:24 - 00:07:14:07 Se quisermos pensar 00:07:16:01 - 00:07:16:22 nas tecnologias 00:07:16:22 - 00:07:20:19 perigosas do dia a dia, provavelmente uma das mais perigosas será, por exemplo, 00:07:21:16 - 00:07:25:02 a tecnologia automóvel para assistir morrer centenas de pessoas. 00:07:25:16 - 00:07:28:04 Mas não é por isso que nós não temos milhões de pessoas 00:07:28:23 - 00:07:31:07 a percorrer as estradas. É um bom exemplo. 00:07:31:08 - 00:07:36:11 Porque por que a tecnologia do automóvel merece esta nossa bonomia? 00:07:36:17 - 00:07:40:11 Apesar de o excesso de velocidade de um pião atropelado 00:07:40:24 - 00:07:44:12 por aquilo que polui e por aí fora, a gente pode fazer uma lista infindável. 00:07:45:01 - 00:07:48:19 São horas, horas perdidas diariamente por milhões de pessoas no trânsito. 00:07:48:21 - 00:07:51:13 Então, porque. Tem tão boa boa fama nesta tecnologia? 00:07:51:16 - 00:07:55:08 Professor tem uma ideia. 00:07:55:15 - 00:07:58:00 É uma boa pergunta e acho que é uma longa história. 00:07:58:23 - 00:08:02:16 Obviamente que toda a gente 00:08:03:10 - 00:08:05:20 tem uma balança interior 00:08:05:20 - 00:08:08:19 e vê o lado positivo e o lado negativo. 00:08:08:21 - 00:08:10:12 Não é, portanto, a conveniência 00:08:11:16 - 00:08:12:10 do automóvel. 00:08:12:10 - 00:08:14:21 A capacidade de alugar ou não poderia. 00:08:14:21 - 00:08:17:00 Ir até uma ideia de liberdade. 00:08:17:00 - 00:08:18:13 Há uma ideia claramente. 00:08:18:13 - 00:08:20:16 Basta olharmos, 00:08:20:17 - 00:08:23:22 por exemplo, estamos a falar de informação e comunicação. 00:08:24:08 - 00:08:27:10 Basta olharmos para os anúncios da indústria automóvel. 00:08:27:21 - 00:08:31:03 E são sempre, digamos, as montanhas com vistas para o mar. 00:08:32:09 - 00:08:36:19 E se nós formos analisar os dados do dia a dia dos automobilistas, 00:08:37:07 - 00:08:41:23 vemos que são horas de ser 19 e, portanto, as pessoas compram o automóvel 00:08:41:23 - 00:08:46:12 com uma ideia de liberdade idílica, quase idílica. 00:08:46:14 - 00:08:48:22 Não é, pois, o uso real, 00:08:49:22 - 00:08:52:08 digamos, confinado dentro 00:08:52:08 - 00:08:56:09 daquela daquelas estrutura metálica, daquela lata, 00:08:56:14 - 00:08:59:14 daquela lata, que é o termo que eles usam, mas que não queria 00:08:59:17 - 00:09:02:04 trazê lo agora para entrevista e sim que eu chamo o meu carro. 00:09:02:19 - 00:09:05:07 Aquele da minha lata. A minha lata 00:09:06:11 - 00:09:08:16 que acaba para muitas pessoas. 00:09:08:23 - 00:09:11:16 Não sou eu o caso, porque o interessante já não é o automóvel. 00:09:11:17 - 00:09:15:02 Sou, sou os para ir ao supermercado praticamente. 00:09:16:21 - 00:09:19:07 Mas vejo que a grande maioria das pessoas 00:09:19:07 - 00:09:22:21 passa uma parte substancial das suas vidas dentro daquelas latas. 00:09:23:02 - 00:09:25:03 Porque é uma vida miserável. 00:09:25:03 - 00:09:28:08 E, todavia, não nos interrogamos muito sobre isso, nem. 00:09:28:08 - 00:09:30:03 Sobre isso exatamente. 00:09:30:03 - 00:09:32:14 E não olhamos para os impactos 00:09:33:05 - 00:09:36:12 não só nas nossas vidas, mas também os impactos ambientais 00:09:37:17 - 00:09:40:07 que precisamos de alguma forma a fazer com que 00:09:40:20 - 00:09:42:23 as gerações vindouras 00:09:43:12 - 00:09:46:17 venham a ter de pagar pela liberdade 00:09:47:06 - 00:09:49:24 que nós usamos nestes últimos 100 anos 00:09:50:01 - 00:09:52:23 na indústria automóvel. 00:09:53:08 - 00:09:57:15 E é e portanto é por isso que acaba por ser apelativo. 00:09:57:15 - 00:10:00:09 Porque se nós da nossa balança pesar temos 00:10:01:19 - 00:10:04:14 os custos que não pagamos diretamente. 00:10:05:15 - 00:10:06:21 Se calhar 00:10:07:06 - 00:10:09:24 teríamos mais meios, vontade em mudar. 00:10:09:24 - 00:10:14:17 Se isso é um custo indireto que que que está aqui implícito, 00:10:15:03 - 00:10:18:19 mas de que nós não falamos exatamente exatamente. 00:10:19:06 - 00:10:22:03 É a vida e as tecnologias 00:10:22:03 - 00:10:25:02 são cheias de custos indiretos que 00:10:27:13 - 00:10:32:15 que que nós não consideramos todas as tecnologias. 00:10:33:07 - 00:10:36:24 Hoje em dia, quando falamos das redes sociais, excepto a a custos, 00:10:37:14 - 00:10:40:05 a custos, interesses elevados 00:10:40:14 - 00:10:43:09 e que ninguém pensa, também fomos. 00:10:43:13 - 00:10:45:08 Foi vendida a ideia 00:10:45:08 - 00:10:49:12 de voltar a reencontrar os amigos, de estar mais perto dos avós. 00:10:49:13 - 00:10:51:24 Essa ideia é boa e. É uma ideia boa. 00:10:51:24 - 00:10:54:11 Mas depois também há as 00:10:56:08 - 00:10:58:20 aquelas pessoas que sofrem de aflição, 00:10:59:19 - 00:11:01:24 que sei que sofrem de depressões, 00:11:01:24 - 00:11:04:08 que são agravadas ou amplificadas 00:11:05:01 - 00:11:08:16 pelo uso intensivo dessas mesmas redes. 00:11:09:02 - 00:11:14:03 Portanto, como estávamos a dizer, não existe tecnologia que não tenha 00:11:15:02 - 00:11:16:00 o lado 00:11:16:00 - 00:11:18:20 virtuoso e o lado vicioso toda está aí. 00:11:20:02 - 00:11:22:07 É preciso saber sabermos 00:11:22:07 - 00:11:24:15 colectivamente, ponderar 00:11:25:19 - 00:11:30:09 e tentar fazer com que os efeitos negativos sejam minimizados 00:11:30:23 - 00:11:33:16 e os positivos maximizados. 00:11:33:23 - 00:11:36:07 Eu vim aqui bater à porta porque 00:11:38:00 - 00:11:42:09 toda a gente anda a falar do chat GTP, CERT e agora 00:11:42:11 - 00:11:45:00 metade das pessoas que estão a ouvir dizerem o quê? 00:11:45:09 - 00:11:47:04 De que é que vocês estão a falar? 00:11:47:04 - 00:11:50:01 Estamos a falar do quê? No meu tempo 00:11:50:01 - 00:11:52:08 os animais falavam, mas agora se falam 00:11:52:08 - 00:11:54:18 os computadores, como é que é o que eu chamo de GTP? 00:11:55:11 - 00:11:57:14 Ora bem, é difícil. 00:11:57:17 - 00:12:01:15 É difícil explicar quase tão difícil como explicar 00:12:02:21 - 00:12:05:20 o que é mecânica quântica. Mas 00:12:05:20 - 00:12:07:05 isso está a ficar complicado, porque. 00:12:07:05 - 00:12:08:09 Sim, está a ficar complicado. 00:12:08:09 - 00:12:11:00 Mas sei, vou tentar. Mas eu não vou eximir. 00:12:11:09 - 00:12:13:17 Para os que, como vamos começar pelo sintoma, 00:12:13:20 - 00:12:17:11 não sabe. Onde está toda a gente, nem toda a gente, a 00:12:18:17 - 00:12:19:17 toda a gente. 00:12:19:17 - 00:12:22:24 Os motores de busca hoje em dia é quase uma pesquisa, 00:12:23:11 - 00:12:27:23 mete uma palavra e o motor de busca que diz logo por baixo de três ou quatro 00:12:27:23 - 00:12:32:05 linhas, coloque três ou quatro sugestões do que é que será a palavra seguinte. 00:12:32:19 - 00:12:33:15 Rápido, rápida. 00:12:33:15 - 00:12:37:04 A isto é, se nós quisemos fazer, por exemplo, o estado do tempo 00:12:37:13 - 00:12:41:16 e se puser, qual está a temperatura 00:12:41:16 - 00:12:46:00 em que ele provavelmente legislou ou morto conforme o sitio nós temos. 00:12:46:18 - 00:12:50:12 Tanto ele adivinhou o que é, o que é que, o que é que o podia procurar. 00:12:50:12 - 00:12:51:10 Tentou não. 00:12:51:10 - 00:12:54:07 Tudo o que, o que? O que os sistemas fazem? 00:12:54:20 - 00:12:57:12 Recriar aquilo que chamamos o modelo de linguagem 00:12:58:01 - 00:13:01:22 que é um palavrão, mas que basicamente o que faz 00:13:02:08 - 00:13:05:21 é contabilizar as frequências relativas às sequências. 00:13:06:03 - 00:13:08:07 Sequências múltiplas e agora em português. 00:13:08:08 - 00:13:13:08 Isso quer dizer isso quer dizer que, por exemplo, quando eu ligo serras, 00:13:14:07 - 00:13:17:00 imediatamente na sua minha cabeça vai a Serra da Estrela. 00:13:17:11 - 00:13:18:03 Se disse. 00:13:18:03 - 00:13:20:20 O secretário geral das Nações Unidas. 00:13:20:20 - 00:13:22:21 Claro, é óbvio. E, portanto, porquê? 00:13:23:06 - 00:13:27:09 Porque, para estas sequências, duas, três palavras. 00:13:28:06 - 00:13:30:12 Se fizer a contagem e realizar, 00:13:30:21 - 00:13:33:22 pegar em todos os textos, a figura chamemos um crop, uma recolha. 00:13:34:01 - 00:13:35:19 E ou mais dos três ou mais. 00:13:35:19 - 00:13:37:02 Estatisticamente. 00:13:37:02 - 00:13:41:24 E, portanto, no fundo, fazendo a contabilidade de todas as vezes 00:13:41:24 - 00:13:45:07 que a seguir a estas duas palavras aparece a terceira. 00:13:45:21 - 00:13:47:17 Chama se um trigramas. 00:13:47:17 - 00:13:50:15 Portanto, a terceira suceder. 00:13:50:17 - 00:13:54:14 Os Trigramas são grupos de três palavras para podermos fazer pentagrama 00:13:54:15 - 00:13:56:03 com cinco, etc. 00:13:56:03 - 00:14:00:04 Portanto, se nós contabilizarmos o número de ocorrências 00:14:00:12 - 00:14:04:09 de cada um destes pictogramas, temos uma indicação de que 00:14:04:22 - 00:14:09:15 para aquelas as 4/1 palavras, qual é a frequência da quinta? 00:14:09:18 - 00:14:10:19 É certo. Mas para que. 00:14:11:20 - 00:14:13:06 Serve para muitas? 00:14:13:06 - 00:14:16:15 Aquela que eu lhe indiquei é a primeira, 00:14:16:15 - 00:14:20:02 não é que é, portanto, por exemplo, o seu, 00:14:21:05 - 00:14:24:18 o seu motor de pesquisa, o seu corretor ortográfico. 00:14:25:04 - 00:14:27:07 Não é, portanto, antecipar 00:14:27:19 - 00:14:30:20 qual é que é a palavra que estatisticamente seria esperada. 00:14:31:05 - 00:14:33:17 É a seguir. 00:14:33:17 - 00:14:34:17 Portanto. 00:14:34:17 - 00:14:38:11 Dizer que nós olha que esperto computador clique, clique. 00:14:39:17 - 00:14:43:19 A questão é que, portanto, estamos a entrar no domínio da linguagem. 00:14:43:19 - 00:14:46:24 Mas já desde os anos 00:14:47:00 - 00:14:51:18 50957, apesar de um artigo seminal em que diz que nós conhecemos 00:14:51:18 - 00:14:55:12 as palavras pela companhia, começou como os humanos. 00:14:55:12 - 00:14:57:18 Um diz me quem és, 00:14:58:19 - 00:15:00:09 mesmo com quem vens correr atrás. 00:15:00:09 - 00:15:03:09 E eu digo que quem és não é. E, portanto, 00:15:03:09 - 00:15:05:19 desde desde essa altura que se percebeu que 00:15:07:20 - 00:15:09:20 as palavras tendem 00:15:09:20 - 00:15:13:11 tendem a ocorrer a estar próximas umas das outras, 00:15:13:11 - 00:15:15:18 quando elas são também semanticamente próximas 00:15:16:21 - 00:15:18:18 e, portanto. 00:15:18:18 - 00:15:21:24 O que significa que para as máquinas ou para este sistemas que estão montados 00:15:23:17 - 00:15:27:04 a regularidade, como nós organizamos o discurso natural. 00:15:27:04 - 00:15:29:06 Certo, pode. Quase fazer sentido. 00:15:29:06 - 00:15:32:07 Matematicamente, um dolo está a maior probabilidade. 00:15:32:07 - 00:15:37:11 E esta é a máquina vai conseguir ir ajustando sempre o mais possível. 00:15:37:11 - 00:15:39:00 Mais provável exatamente. 00:15:39:00 - 00:15:42:20 É, portanto, o que estes modelos de linguagem de alguma forma fazem. 00:15:42:22 - 00:15:43:24 E eu posso. 00:15:43:24 - 00:15:48:05 Por exemplo, eu tenho uma expressão, uma expressão qualquer 00:15:49:16 - 00:15:51:02 sobre isso. 00:15:51:02 - 00:15:53:15 Imagine que eu estou a tentar 00:15:54:02 - 00:15:57:17 caracterizar a palavra 00:15:58:03 - 00:16:00:20 jaguar ok, e, portanto, 00:16:01:23 - 00:16:07:08 eu não faço ideia do que é que a Jaguar, mas faço uma recolha textos milhões. 00:16:07:21 - 00:16:10:09 E repare que a palavra Jaguar 00:16:10:17 - 00:16:14:00 com muita frequência parece de proximidade e puxasse uma janela, 00:16:14:02 - 00:16:17:14 duas ou três palavras para trás e para a frente, perto automóvel. 00:16:17:23 - 00:16:18:13 Muitas vezes, 00:16:19:14 - 00:16:21:16 e portanto percebo 00:16:21:16 - 00:16:25:12 que tem uma semântica relacionada com o automóvel. 00:16:25:20 - 00:16:29:01 Tenta semântica em organização integrada da própria expressão. 00:16:29:13 - 00:16:31:14 Portanto, falar no sentido Victor, tanto para. 00:16:31:14 - 00:16:33:05 Nós, é o nosso sentido. 00:16:33:05 - 00:16:35:19 O sentido dos conceitos nas coisas. 00:16:35:21 - 00:16:37:12 As palavras representam conceitos. 00:16:37:12 - 00:16:40:19 E qual é o conceito que se associa então a cada palavra 00:16:41:09 - 00:16:45:16 e, portanto, mas também por análise ao mesmo tipo de análise? 00:16:45:21 - 00:16:50:04 Repare que frequentemente, Jaguar aparece associado 00:16:50:18 - 00:16:52:19 a um felino algures 00:16:53:07 - 00:16:56:13 na América Latina e, portanto, o que a Jaguar 00:16:57:10 - 00:17:00:13 estiver dentro da máquina, que é fria e só faz contas 00:17:00:18 - 00:17:03:23 sobre as frequências relativas às palavras, fica a perceber 00:17:03:23 - 00:17:06:08 que pode ser, aliás, que mentalmente eu disse a Jaguar. 00:17:06:24 - 00:17:09:03 Parecem as duas coisas. Parecidas com as duas coisas. 00:17:09:07 - 00:17:10:20 Ele deve estar a falar disto ou daquilo. 00:17:10:20 - 00:17:13:17 Já excluiu milhares, milhões de coisas, 00:17:13:24 - 00:17:16:15 mas imediatamente a sua atenção já está focada. 00:17:17:00 - 00:17:19:14 E quando eu disser a seguir é Jaguar ir falar 00:17:20:02 - 00:17:23:18 em Amazonas imediatamente excluiu logo a indústria automóvel. 00:17:23:18 - 00:17:27:08 E o animal, o que é uma coisa que nos dá jeito mentalmente. 00:17:27:14 - 00:17:28:11 Enfim, porque 00:17:29:13 - 00:17:32:02 a diversidade de conceitos e de palavras e ideias 00:17:32:10 - 00:17:35:14 dá nos um grande jeito de nós conseguirmos focar muito próximo 00:17:35:14 - 00:17:37:09 daquilo que percebemos, o que é que estamos a falar de todos. 00:17:37:09 - 00:17:37:21 Uns com os outros? 00:17:37:21 - 00:17:38:14 Não exactamente. 00:17:38:14 - 00:17:41:24 E, portanto, desde há várias décadas que nós, 00:17:42:11 - 00:17:45:24 na gíria informática, os anos em que o que se chama 00:17:45:24 - 00:17:49:20 processamento de linguagem natural, que é uma técnica de texto, 00:17:50:05 - 00:17:54:14 esta estas ideias de olhar para frequência relativas às palavras 00:17:55:02 - 00:17:58:18 é a seguir inferir 00:17:58:22 - 00:18:02:08 qual será o conceito em que metade da palavra está a ser usada 00:18:03:20 - 00:18:04:10 num texto. 00:18:04:10 - 00:18:06:14 Portanto, não é adivinhação, é matemática. 00:18:06:14 - 00:18:11:04 E matemática pura é só e só contabilidade básica de contar palavras. 00:18:11:16 - 00:18:15:15 E portanto, o que nós podemos fazer é, portanto, caracterizar o significado 00:18:15:22 - 00:18:20:03 de uma palavra num texto com base nas palavras que estão à volta dela. 00:18:20:13 - 00:18:24:02 Isto funciona, não é aquilo que está neste momento 00:18:24:21 - 00:18:28:09 a citar toda a gente com os epítetos, 00:18:29:07 - 00:18:33:13 que é um que se chama Lourdes, língua de uma modelo 00:18:35:05 - 00:18:36:24 de linguagem 00:18:36:24 - 00:18:40:08 grande, grande, significa terabytes de texto. 00:18:40:08 - 00:18:43:20 Portanto, não estamos a treinar 00:18:43:20 - 00:18:46:11 um sistema que contabiliza 00:18:46:14 - 00:18:49:06 estas, estas frequências relativas. 00:18:49:16 - 00:18:54:12 Com base no texto Jesus Luz Ideas ou da Literatura Portuguesa, 00:18:54:12 - 00:18:58:11 estamos a falar de toda a literatura, toda a Wikipédia, 00:18:58:22 - 00:19:03:00 todos os chatos frases que para ela, em termos desse texto, está. 00:19:03:00 - 00:19:03:21 Tudo lá, tem. 00:19:03:21 - 00:19:06:05 Tecnologia, utilizamos, contabilizamos, 00:19:07:05 - 00:19:10:00 contabilizamos numa, 00:19:10:00 - 00:19:12:09 num conjunto de informação 00:19:12:09 - 00:19:16:02 que era, digamos, impensável há dez anos ou 20 anos atrás. 00:19:16:05 - 00:19:17:05 O que é que melhorou? 00:19:17:05 - 00:19:19:14 São as base de dados, são a rapidez dos computadores, o que é que. 00:19:20:19 - 00:19:24:13 Eu acho que é que é que é que a digitalização será? 00:19:24:24 - 00:19:27:11 Portanto, há 20 anos alguém que tivesse 00:19:28:14 - 00:19:31:14 tivesse esta ideia. 00:19:31:14 - 00:19:35:08 Portanto, como diz a ideia de que as palavras se conhecem pelos que 00:19:35:08 - 00:19:36:21 estão próximos três décadas, 00:19:39:18 - 00:19:42:08 a barreira que encontraria é muito bonito. 00:19:42:10 - 00:19:44:13 Mas onde é que eu vou recolher esse texto todo? 00:19:44:13 - 00:19:47:04 Onde é que eu vou encontrar máquinas para fazer esse processamento? 00:19:47:07 - 00:19:51:12 No fundo, só funciona se os Lusíadas saírem do papel e passarem 00:19:51:12 - 00:19:54:15 para dentro do computador e passar a estar esse texto digitalizado lá dentro. 00:19:54:15 - 00:19:55:17 E nós agora fazemos. 00:19:55:17 - 00:19:59:06 Só dizemos tudo pelos pelos meios digitais. 00:19:59:06 - 00:20:01:20 Portanto, a ar 00:20:01:20 - 00:20:05:05 as discussões em particular, estamos a entrar no GPT, 00:20:05:16 - 00:20:09:24 portanto, os créditos são fóruns de discussão, 00:20:09:24 - 00:20:13:07 fóruns de discussão onde as pessoas falam e discutem. 00:20:13:13 - 00:20:15:02 E está tudo gravado. 00:20:15:09 - 00:20:17:01 Foi tudo gravado ao longo dos anos. 00:20:17:01 - 00:20:18:15 Não sei se não fico preocupado com essa ideia. 00:20:18:15 - 00:20:20:10 Portanto, quando nós vamos a um fórum de discussão 00:20:20:10 - 00:20:23:07 e dizemos Olha, tenho aqui o meu problema, porque a minha 00:20:24:12 - 00:20:27:20 fechadura da minha porta range não meio uma ajuda. 00:20:27:20 - 00:20:31:19 E eu e os meus amigos ou conhecidos, ou quem for colocado 00:20:31:22 - 00:20:35:02 a dez ou 20 sugestões, tudo isso ficou registado. 00:20:35:15 - 00:20:36:20 Obviamente. 00:20:37:18 - 00:20:39:09 Portanto, para. O bem ou mal. 00:20:39:09 - 00:20:40:13 Para o bem e para o mal, portanto. 00:20:40:13 - 00:20:42:12 Há uma memória da internet. 00:20:42:12 - 00:20:44:02 Absolutamente. 00:20:44:02 - 00:20:45:23 Portanto, hoje em dia 00:20:46:02 - 00:20:48:20 há. Não é uma memória. 00:20:48:23 - 00:20:51:17 E esse é outra das questões que nos deve 00:20:53:12 - 00:20:55:02 obrigar a reflectir. 00:20:55:02 - 00:21:00:04 Não é uma memória que é colectiva, no sentido em que todos temos essa memória. 00:21:00:23 - 00:21:05:14 Há duas ou três ou quatro chamadas gigantes tecnológicos. 00:21:05:15 - 00:21:07:20 Não é Google, a Microsoft, etc. 00:21:10:03 - 00:21:12:08 É uma zona que tem 00:21:14:10 - 00:21:15:10 essas. 00:21:15:10 - 00:21:16:24 A chave do castelo. 00:21:16:24 - 00:21:20:13 Tem a chave do castelo e já tem o castelo, porque os Açores. 00:21:20:21 - 00:21:25:00 Portanto, dominaram a infraestrutura, foram 00:21:26:18 - 00:21:29:15 alegremente beber em nós. 00:21:29:15 - 00:21:33:18 O nosso saber, a nossa poesia, as nossas dúvidas 00:21:34:11 - 00:21:36:11 e guardaram tudo lá deles. 00:21:36:11 - 00:21:37:15 Absolutamente. 00:21:37:15 - 00:21:39:17 E agora, o que é que fazem com isto? 00:21:39:17 - 00:21:41:01 Agora fazem estas, 00:21:41:01 - 00:21:45:14 fazem muitas coisas como ajudar lhes quando nós fazemos pesquisas, etc. 00:21:45:15 - 00:21:47:24 Essa base de informação 00:21:48:05 - 00:21:50:00 nos dava 00:21:50:00 - 00:21:53:03 para fazer coisas muito úteis como nós 00:21:54:07 - 00:21:56:06 podemos ir passar férias? 00:21:56:06 - 00:21:57:15 Nós temos muitas coisas 00:21:57:15 - 00:21:59:21 muito interessantes. Marca aqui o seu hotel, é o mote. 00:22:00:03 - 00:22:02:06 Ajudamos a encontrar aquele sítio certo, aquilo. 00:22:02:06 - 00:22:04:05 Se calhar não o que pode pagar mais ou menos. 00:22:04:05 - 00:22:07:08 Mas, portanto, como há uma infraestrutura que custa 00:22:08:08 - 00:22:10:23 dinheiro a construir e a manter. 00:22:11:02 - 00:22:13:11 Quem paga a conta, alguém. Terá que pagar Inês. 00:22:13:16 - 00:22:16:05 Neste modelo atual, só os anunciantes. 00:22:16:11 - 00:22:18:18 Portanto, o facto de 00:22:20:04 - 00:22:22:16 os anunciantes terem 00:22:22:16 - 00:22:27:12 uma noção de que o que são os seus comportamentos, onde e onde é que passa o tempo 00:22:28:11 - 00:22:31:03 e as ideias que exprime. 00:22:31:03 - 00:22:33:19 Voltamos ao Jaguar que quer este tipo comprar um carro novo, 00:22:33:19 - 00:22:37:04 um Jaguar ou quer ele ir ver Jaguar algures no mundo. 00:22:37:13 - 00:22:39:18 Em função disso, pode vender uma viagem e um carro. 00:22:40:01 - 00:22:42:08 Exatamente para ter um aspeto que 00:22:43:24 - 00:22:47:04 quer que que às vezes passa despercebido 00:22:47:22 - 00:22:48:16 e que 00:22:50:13 - 00:22:51:12 para estas empresas 00:22:51:12 - 00:22:53:13 eles é muito menos valioso 00:22:54:12 - 00:22:57:12 e muito menos valioso. 00:22:57:14 - 00:23:00:08 Aquilo que as pessoas dizem opinam 00:23:00:08 - 00:23:02:10 e muito face 00:23:03:03 - 00:23:06:03 àquilo que são os seus comportamentos. 00:23:06:15 - 00:23:08:04 O que é que eu faço com isso? E aqueles não? 00:23:08:04 - 00:23:11:00 O que é que as próprias pessoas fazem na internet? 00:23:11:00 - 00:23:14:21 As pessoas podem poder escrever e dizer que adoram música clássica. 00:23:14:21 - 00:23:15:24 Que não têm interesse nenhum. 00:23:15:24 - 00:23:21:16 Mas nós podemos ter acesso à música que ouve e percebemos que na verdade os ouve. 00:23:21:16 - 00:23:24:00 Música popular 80% do tempo. 00:23:24:00 - 00:23:26:22 Aliás, as pessoas constroem as suas identidades, 00:23:26:22 - 00:23:31:17 como agora se diz, as suas imagens e isso são construídas em função, digamos, 00:23:31:17 - 00:23:35:04 do ser ficcional com que em certo idealismo. 00:23:35:13 - 00:23:37:10 Mas depois o seu dia a dia e o que fazem 00:23:39:02 - 00:23:41:18 não uma praia directamente descobrem. 00:23:42:02 - 00:23:44:07 A máquina descobre careca. 00:23:44:08 - 00:23:46:05 A máquina é a máquina 00:23:46:05 - 00:23:48:21 e portanto, no caso do automóvel, pode efetivá. 00:23:48:21 - 00:23:53:16 Mente dizer que sabe tudo sobre Jaguar e que vai comprar um Jaguar, etc. 00:23:54:03 - 00:23:56:04 Mas o sistema 00:23:56:07 - 00:23:59:01 dos seus comportamentos 00:23:59:01 - 00:24:03:21 não se deixará enganar porque perceberá o que não tem 00:24:03:21 - 00:24:07:06 e não tem a capacidade económica para adquirir um veículo daqueles 00:24:07:15 - 00:24:10:17 ou que não é, digamos, do grupo de pessoas. 00:24:11:01 - 00:24:13:23 Basta, nós somos, somos, somos seres sociais 00:24:13:23 - 00:24:18:04 e fazemos as coisas em face daqueles que nos rodeia. 00:24:18:04 - 00:24:21:05 Se os seus seus amigos não têm jaguares nem se interessam por jaguares, 00:24:21:06 - 00:24:25:03 é muito pouco provável que você, quando diz que gosta de ser claro. 00:24:25:20 - 00:24:28:22 Que seja mentira ou melhor, ele diz que gosta, mas não tem. 00:24:28:22 - 00:24:30:24 Mas não tem nenhuma razão dizer não, não, não. 00:24:30:24 - 00:24:33:02 Não vou dizer mentir, mas digamos que 00:24:34:14 - 00:24:36:12 que que, 00:24:36:12 - 00:24:39:09 digamos, as pessoas falam sobre aquilo, sobre a sua, 00:24:39:24 - 00:24:42:22 digamos, e a identidade da tal identidade que constrói. 00:24:43:02 - 00:24:46:15 É uma persona que pode ser fictícia ou que pode ser uma mistura 00:24:46:15 - 00:24:48:10 entre factos e desejos. 00:24:48:10 - 00:24:50:14 Exactamente, exatamente. 00:24:50:14 - 00:24:53:04 E a próprio se pode nem sequer ter noção de que, 00:24:54:18 - 00:24:57:02 no mundo real é esse ser outra. 00:24:57:02 - 00:25:00:21 Outra questão não é exatamente a mesma pessoa com que 00:25:01:14 - 00:25:04:01 com que se projeta ou que é percebida pelos outros. 00:25:04:14 - 00:25:07:09 Pode não ser num dia, não é intencional nem malicioso. 00:25:07:17 - 00:25:10:04 Nós todos que tivemos, temos que ter um pouco disso. 00:25:10:09 - 00:25:12:01 Mas tenho que dizer que 00:25:12:01 - 00:25:14:22 eu, quando vim para aqui, estacionei ali no parque de estacionamento 00:25:14:22 - 00:25:18:12 e antes fui ao restaurante e obviamente paguei com o meu multibanco. 00:25:18:12 - 00:25:19:13 Agora, com o relógio é 00:25:21:04 - 00:25:22:05 no fundo. 00:25:22:05 - 00:25:24:18 Estou uma piada, sim. 00:25:24:18 - 00:25:25:11 Absolutamente. 00:25:25:11 - 00:25:27:05 Passaste nesta portagem 00:25:27:05 - 00:25:31:02 para que acho neste restaurante tudo o que eu comi e como desisto. 00:25:31:03 - 00:25:32:15 Este automóvel não condiz. 00:25:32:15 - 00:25:34:17 Vieste no metro é e gasto do teu bilhete. 00:25:34:23 - 00:25:36:01 Tudo fica. 00:25:36:01 - 00:25:37:04 Ficou de alguma maneira registado? 00:25:37:04 - 00:25:39:11 Não sei de qualquer. Sim, é mais que isso. 00:25:40:04 - 00:25:42:18 E acho que o que é para mim o que mais me assusta 00:25:43:18 - 00:25:47:00 nem é tanto isso como o facto de, pelo facto de 00:25:47:00 - 00:25:53:05 eu estar conectado e relacionado, continuar 00:25:54:18 - 00:25:58:09 a saber quem eu sou ou o que eu sou, estar a condicionar 00:25:58:09 - 00:26:01:24 aquilo que os sistemas sabem sobre aqueles que me são próximos. 00:26:03:04 - 00:26:04:18 Vou dar um exemplo que é o mais. 00:26:04:18 - 00:26:08:01 Ouvir todos não é para mim, é os emails. 00:26:08:02 - 00:26:11:11 Toda a gente envia emails no Gmail, 00:26:13:06 - 00:26:15:14 portanto, todos os dias 00:26:15:14 - 00:26:18:17 eu recebo dezenas, centenas de mensagens de e-mail 00:26:19:12 - 00:26:22:23 e poderia ter que esta ideia, digamos, naive. 00:26:23:05 - 00:26:28:04 Ok, não vou ter o meu email no Gmail porque não quer que a Google saiba o que? 00:26:28:04 - 00:26:31:12 Aquilo que é que eu vou no próprio servidor não é 00:26:32:04 - 00:26:35:06 o meu problema com os meus interlocutores. 00:26:35:06 - 00:26:38:02 Quase todos têm conta no Gmail quando não têm contra o Gmail. 00:26:38:02 - 00:26:42:13 Tem um forma de reencaminhou a mensagem automaticamente que, portanto, quer 00:26:42:13 - 00:26:43:14 eu queira, quer não queira. 00:26:43:14 - 00:26:47:11 Todas as minhas mensagens que entram e saem estão guardadas no Gmail, 00:26:48:15 - 00:26:50:23 portanto, e pegando nisto, 00:26:51:15 - 00:26:55:01 temos também nos comportamentos que posso decidir, por exemplo, 00:26:55:11 - 00:26:57:17 pagar sempre em dinheiro, mas 00:26:58:22 - 00:27:00:20 como no meu grupo social, 00:27:00:20 - 00:27:04:14 as pessoas todas costumam ir frequentemente ao mesmo restaurante 00:27:05:10 - 00:27:09:05 e e portanto, e estamos ligados à mesma rede wi fi no café. 00:27:10:04 - 00:27:10:13 Quando 00:27:10:16 - 00:27:13:03 quando fazemos o jantar de sexta feira, 00:27:13:16 - 00:27:18:11 eu posso não dar sinal de nenhum de preferência pelo restaurante que for. 00:27:18:21 - 00:27:21:17 Mas o sistema 00:27:22:08 - 00:27:25:10 adquire a noção que há o grupo três ou quatro, 00:27:25:11 - 00:27:28:18 cinco pessoas que regularmente se encontram naquele sítio e. 00:27:28:21 - 00:27:32:16 Diz diz me, diz me com quem vens e de ter quem tem doença completamente. 00:27:32:19 - 00:27:36:06 Voltemos ao site GTP e ferramentas conexas a outras. 00:27:36:08 - 00:27:40:20 Com este sim, existem a uma a uma. 00:27:41:04 - 00:27:43:08 Há uma ênfase dos media 00:27:44:22 - 00:27:45:22 neste 00:27:46:16 - 00:27:48:10 neste nesta ferramenta. 00:27:48:10 - 00:27:53:12 Isto é, o Santo Graal ou é ou é uma excelente manobra de marketing. 00:27:55:23 - 00:27:58:20 E uma excelente manobra de marketing que claramente é. 00:27:59:03 - 00:28:01:05 Inquestionavelmente 00:28:01:09 - 00:28:03:21 não me parece que seja 00:28:03:21 - 00:28:07:02 sequer pelo conhecimento que eu tenho do grupo. 00:28:07:02 - 00:28:10:13 Tenho acompanhado nos últimos dois, três anos, que estas coisas 00:28:10:14 - 00:28:13:23 começaram a parecer que este modelo seja o mais 00:28:15:00 - 00:28:17:19 sofisticado. 00:28:17:19 - 00:28:22:07 Nem parece que que a empresa que criou o PN já seja mais avançado. 00:28:22:09 - 00:28:25:16 Não é tu, não era a Microsoft. 00:28:25:16 - 00:28:26:17 É a micro. 00:28:26:17 - 00:28:34:14 Se eu mesmo me lembro, digamos, do percurso, a OPA foi criada, portanto. 00:28:34:15 - 00:28:36:18 Por isso a que se chamou no nome, 00:28:36:18 - 00:28:39:16 porque havia um grupo de pessoas que estavam muito preocupados 00:28:39:16 - 00:28:43:00 com que estes grandes das tecnologias estavam a fazer 00:28:44:04 - 00:28:47:04 nesta área de inteligência artificial e que era importante 00:28:47:14 - 00:28:52:22 haver uma versão aberta, digamos, pública, que pudesse ser usada por todos 00:28:52:22 - 00:28:55:21 e que permitisse que o público saber o que se pode 00:28:55:21 - 00:28:57:05 e o que é que se está a fazer com estas coisas. 00:28:57:05 - 00:28:58:04 E o que é que está a acontecer. 00:28:58:04 - 00:29:03:14 Na altura, a pessoa que era mais focal, uma das mais quer dizer o que foi um chip. 00:29:03:14 - 00:29:05:02 Entretanto abandonou o projecto. 00:29:06:10 - 00:29:06:24 Mas havia. 00:29:06:24 - 00:29:11:00 Havia outras outras pessoas que víamos com grande notoriedade 00:29:11:11 - 00:29:13:17 na área das tecnologias de informação. 00:29:14:24 - 00:29:18:14 Os milionários que puseram dinheiro do seu bolso 00:29:18:14 - 00:29:23:13 para criar esta empresa que iria ser um contrapeso 00:29:24:15 - 00:29:26:18 relativamente aos grandes da tecnologia. 00:29:26:18 - 00:29:28:02 Entretanto, 00:29:28:20 - 00:29:31:10 ela que abandonou o projecto, 00:29:31:10 - 00:29:33:17 aMicrosoft, que reforçou, 00:29:33:17 - 00:29:37:15 reforçou a posição e a Microsoft nos últimos anos 00:29:38:19 - 00:29:42:24 deixou de ter o impacto e agora voltou de alguma maneira. 00:29:43:11 - 00:29:46:04 Mas, digamos, a dez anos atrás, a Microsoft 00:29:46:15 - 00:29:49:13 estava em queda de excelente. 00:29:49:13 - 00:29:50:03 E antes de 00:29:50:03 - 00:29:53:07 era que toda a gente tinha a Microsoft, toda a gente tinha os Windows e eis. 00:29:53:12 - 00:29:57:10 O Facebook e a Amazon que apareceram é que eram as já não era e que eram 00:29:57:10 - 00:30:01:04 as grandes, pois a Microsoft ainda hoje nestes acrónimos das dos grandes 00:30:02:23 - 00:30:04:04 killers não encaixa que não. 00:30:04:04 - 00:30:05:09 Não se fala muito deles. 00:30:05:09 - 00:30:07:17 Mas voltando à questão aqui, então que 00:30:08:19 - 00:30:10:12 digamos este, 00:30:11:12 - 00:30:14:04 estes modelos de linguagem estavam a ser trabalhados 00:30:14:04 - 00:30:16:22 pelo Facebook, pela Google, pelos chineses 00:30:18:02 - 00:30:20:12 e portanto, nem parece que o. 00:30:21:01 - 00:30:21:15 Que é que aconteceu? 00:30:21:15 - 00:30:23:07 Os chineses desistiram? 00:30:23:07 - 00:30:26:01 Não, não o contrario 00:30:26:01 - 00:30:28:20 ele provavelmente terá um, 00:30:28:20 - 00:30:31:08 três, um, três modelos de linguagem. 00:30:33:09 - 00:30:36:07 Não estou a lembrar do nome, mas lembro de ter lido um artigo em que 00:30:36:21 - 00:30:40:15 o ou é comparável ao Lambda da Google, que é o último do Google, 00:30:40:19 - 00:30:44:00 ou até se calhar já era superior 00:30:44:06 - 00:30:47:09 em inúmeros interpretes que tentam 00:30:47:17 - 00:30:50:00 medir, digamos, a complexidade do modelo. 00:30:50:14 - 00:30:53:12 Portanto, mas voltando a estes modelos de linguagem, no fundo 00:30:53:24 - 00:30:56:18 permitem prever expressões que agora chegamos ao chato. 00:30:56:19 - 00:31:00:07 GPT são os que fazem parte de um grupo que se chama 00:31:00:07 - 00:31:02:17 os modelos fundacionais, 00:31:03:08 - 00:31:06:24 que que são modelos que não são treinados para nenhuma aplicação 00:31:06:24 - 00:31:10:01 específica, são, são, são 00:31:10:16 - 00:31:13:23 e são treinados ou são, 00:31:14:16 - 00:31:17:10 portanto são criados com estas frequências, etc. 00:31:17:10 - 00:31:19:24 Pois poder se ão fazer certas aplicações. 00:31:20:09 - 00:31:21:20 Há modelos fundacionais 00:31:23:04 - 00:31:23:23 que são 00:31:23:23 - 00:31:27:01 criados com grandes quantidades de dados 00:31:28:07 - 00:31:31:02 para, a partir de 00:31:33:00 - 00:31:34:08 sequências de texto, 00:31:34:08 - 00:31:40:12 criar imagens, cromos, análise atual e sei o que hoje e depois e outros 00:31:40:12 - 00:31:45:09 que a partir de sequências de palavras criam outras sequências top. 00:31:45:19 - 00:31:49:20 E algum que possa mimetizar a nossa voz. 00:31:49:20 - 00:31:52:18 O que aqui está é para amanhã fazer este podcasts sozinho 00:31:53:17 - 00:31:55:22 com a nossa imagem, com também. 00:31:56:08 - 00:31:57:21 Portanto, também. 00:31:57:21 - 00:32:03:03 Já a Google, interessante, anunciou há pouco tempo e pode e pode esperar. 00:32:03:04 - 00:32:05:01 Experimentei, mas vi que não, não pode. 00:32:05:01 - 00:32:07:06 Ainda não pode experimentar. Mas anunciou. 00:32:07:06 - 00:32:09:21 Já vi outras versões aqui do Google 00:32:09:24 - 00:32:11:24 em que pode, por exemplo, gerar música, 00:32:13:12 - 00:32:15:20 já que é uma sequência de sons. 00:32:15:20 - 00:32:18:11 Então a criatividade, a criatividade humana vai morrer? 00:32:19:11 - 00:32:21:17 Não todo de todos. 00:32:21:17 - 00:32:22:19 Não, não me parece essa. 00:32:22:19 - 00:32:24:01 Máquina já pintada ali. 00:32:24:01 - 00:32:26:19 Essa máquina faz, me faz me rir. Um botão. 00:32:28:19 - 00:32:30:21 Só. Quem não vai transforma essas coisas ao mesmo tempo. 00:32:31:06 - 00:32:31:23 Mas acho que não. 00:32:31:23 - 00:32:35:05 Acho que na minha perspetiva é uma. 00:32:35:22 - 00:32:37:03 É uma ferramenta. 00:32:37:03 - 00:32:40:22 De cada vez que nós inventamos uma ferramenta nova, 00:32:41:06 - 00:32:44:11 ela vai lá, vai ali. 00:32:44:11 - 00:32:48:00 O mundo inteiro disse que os artistas, 00:32:48:00 - 00:32:51:21 ou que uma certa profissão vai que nos aconteceu com a máquina, 00:32:51:21 - 00:32:55:03 foi por o caminho de ferro, com o automóvel. 00:32:55:03 - 00:32:57:18 Eu diria que nos no caso dos bancários, isso até foi verdadeiro 00:32:57:24 - 00:33:01:04 quando apareceram os os multibancos e os homebanking. 00:33:01:05 - 00:33:04:09 E não sei que foi uma profissão que cresceu muito e sem se. 00:33:04:21 - 00:33:07:04 Claro. Mas eu estou me a lembrar. 00:33:07:21 - 00:33:09:08 A agricultura 00:33:09:15 - 00:33:12:03 no início do século XXI, no final do século XIX, 00:33:12:09 - 00:33:14:19 representava 90% dos empregos. 00:33:14:19 - 00:33:17:02 Hoje em dia representa dez. 00:33:17:02 - 00:33:18:22 O que acontece? 00:33:18:22 - 00:33:21:06 O que acontece é que há uma redistribuição, 00:33:21:12 - 00:33:25:14 porque nós somos humanos e enquanto humanos, nós, no fundo, 00:33:25:14 - 00:33:27:02 aquilo que estamos a fazer é 00:33:29:17 - 00:33:31:15 remunerar cada um 00:33:31:15 - 00:33:34:03 em sociedade pela sua contribuição. 00:33:34:10 - 00:33:38:15 Por exemplo, nós valorizamos imensamente o que 00:33:39:09 - 00:33:43:11 jogadores de futebol como Cristiano Ronaldo fazem e, portanto, 00:33:44:00 - 00:33:47:00 digamos, a nossa riqueza colectiva é redistribuída 00:33:47:00 - 00:33:50:22 de forma que ele seja compensado muito mais generosamente do que 00:33:52:01 - 00:33:55:00 do que as pessoas que, por exemplo, trabalham no ensino, como eu. 00:33:55:02 - 00:33:57:05 E no fundo, no fundo, nós podemos pensar que isso 00:33:57:08 - 00:34:00:20 é demasiado binário e que é porque é que eu pago alguém e 00:34:01:21 - 00:34:05:17 milhares de euros por ele chutar uma bola de couro? Sim, 00:34:05:19 - 00:34:06:07 mas na realidade 00:34:06:07 - 00:34:10:22 nós estamos a remunerar também outra coisa que é a emoção que está, a que 00:34:11:14 - 00:34:17:04 os valores implícitos e fatos que não são e que é diferente do agricultor. 00:34:17:04 - 00:34:18:17 Um quilo de batatas e um quilo de batatas. 00:34:19:24 - 00:34:20:20 Exactamente. 00:34:20:20 - 00:34:23:13 Mas a questão aqui é que nós, socialmente, 00:34:24:19 - 00:34:29:06 conjuntamente, produzimos riqueza e depois distribuímos essa riqueza 00:34:29:07 - 00:34:33:05 de uma forma em que a repartição é feita 00:34:33:12 - 00:34:36:04 de acordo com o que valorizamos e pode ser injusto ou não. 00:34:36:04 - 00:34:41:18 Não vou falar por aí, mas mas tenderá, digamos, a representar essa valorização 00:34:41:18 - 00:34:44:12 e, portanto, é o que está a acontecer com com estas ferramentas todas. 00:34:45:07 - 00:34:48:24 É o tipiti em particular que 00:34:51:15 - 00:34:55:01 os artistas, os criadores têm agora 00:34:55:02 - 00:34:58:04 uma nova ferramenta tomar, lembrar, apresentar nos, falar das imagens. 00:34:58:04 - 00:35:00:03 Quando, quando há uns anos apareceu 00:35:00:03 - 00:35:03:21 as ferramentas digitais de tratamento de imagem, surgiu hoje o Adobe Photoshop. 00:35:04:04 - 00:35:08:08 Também se falava que era o fim da fotografia, pois cada um 00:35:08:08 - 00:35:12:06 agora pedir por si, processar as suas fotografias, etc, etc. 00:35:13:01 - 00:35:17:15 O que aconteceu na prática foi que a Kodak faliu porque não 00:35:17:19 - 00:35:22:04 acompanhou, mas muitas das empresas transformaram se e adaptaram se 00:35:22:17 - 00:35:26:04 e socialmente houve um tumulto claramente. 00:35:26:12 - 00:35:29:13 Havia muita gente nos laboratórios de fotografia e etc. 00:35:29:13 - 00:35:34:15 Que teve que encontrar outras outras atividades, mas ao fim de algum tempo 00:35:35:21 - 00:35:37:23 já não é, digamos, não é drama nenhum. 00:35:37:23 - 00:35:41:09 As pessoas a arranjar outra forma de contribuir socialmente 00:35:41:09 - 00:35:42:10 e de serem remuneradas. 00:35:42:10 - 00:35:45:24 Portanto, o que nós vamos ter aqui com este, 00:35:46:00 - 00:35:51:03 com estas novas ferramentas é um período de instabilidade, 00:35:51:03 - 00:35:54:19 em que haverá os que aprenderam mais depressa a tirar partido 00:35:55:24 - 00:35:59:10 destas ferramentas e destes meios 00:35:59:10 - 00:36:01:13 e e outros que 00:36:02:03 - 00:36:05:00 que faziam trabalhos que agora 00:36:06:13 - 00:36:09:21 passaram a ser feitos mais facilmente com este tipo de ferramentas. 00:36:09:21 - 00:36:11:10 Que tornam se obsoletos. 00:36:11:10 - 00:36:12:24 Que se tornam obsoletos, portanto. 00:36:12:24 - 00:36:15:19 Mas mas a sociedade, enquanto eu acho eu, 00:36:16:04 - 00:36:20:08 eu tenho essa ideia que ainda não vi ainda não vi. 00:36:21:03 - 00:36:24:04 Ainda não vi acontecer 00:36:24:07 - 00:36:27:16 que o que quer que seja, que a nossa sociedade 00:36:27:16 - 00:36:31:22 tenha deixado pessoas para trás com estas, com estas alterações, 00:36:33:03 - 00:36:35:03 há grandes preocupações. 00:36:35:03 - 00:36:38:09 A questão do fosso digital tem que ser, tem que ser gerida 00:36:40:00 - 00:36:41:15 coletivamente para não 00:36:41:15 - 00:36:45:03 deixarmos que os efeitos sejam demasiado devastadores. 00:36:45:03 - 00:36:47:13 E assim pessoas temos que gerir a transição. 00:36:47:22 - 00:36:49:19 Mas as transições 00:36:50:02 - 00:36:52:11 só são positivas. 00:36:52:12 - 00:36:56:23 Nós acabamos sempre por encontrar um meio de acomodar as tecnologias, 00:36:57:03 - 00:36:58:23 porque eu acho que ninguém também quer voltar para trás. 00:36:58:23 - 00:36:59:20 O tempo em que não tínhamos 00:36:59:20 - 00:37:01:22 estas tecnologias não é o tempo em que não havia 00:37:02:23 - 00:37:05:08 eletricidade nem computadores na internet. 00:37:05:18 - 00:37:08:03 Acho que isso acho que era impensável nos dias de hoje toda. 00:37:08:04 - 00:37:08:20 Todavia. 00:37:09:13 - 00:37:11:20 O Alto Comissário das Nações Unidas, há um par de dias, 00:37:12:12 - 00:37:14:22 o Alto Comissário para a Paz para os Direitos Humanos 00:37:15:09 - 00:37:18:24 avisou que esta coisa da inteligência artificial latu sensu 00:37:19:11 - 00:37:22:03 pode ser uma séria ameaça aos direitos humanos 00:37:22:09 - 00:37:25:17 e pediu expressamente que se criem salvaguardas. 00:37:25:20 - 00:37:29:19 No fundo, a linha guia que uns tribos 00:37:30:01 - 00:37:33:18 acham que a palavra é essa mesmo uns tribo para tentar controlar isto. 00:37:33:21 - 00:37:34:05 Certo 00:37:35:18 - 00:37:38:09 partilha desta preocupação totalmente totalmente. 00:37:38:15 - 00:37:39:12 Portanto, 00:37:40:10 - 00:37:42:08 era, digamos nesse sentido que eu estava a ir. 00:37:42:08 - 00:37:45:22 Portanto, nós temos que estar cientes 00:37:46:04 - 00:37:52:00 dos riscos e riscos de vária natureza 00:37:53:20 - 00:37:56:22 e pessoalmente, como eles estão a dizer. 00:37:56:22 - 00:38:00:10 E o risco da automação 00:38:00:10 - 00:38:03:02 é provavelmente o que menos me preocupa 00:38:03:15 - 00:38:07:01 a tese de que haverá pessoas que ficam sem emprego. 00:38:07:05 - 00:38:08:07 Então, o que é que preocupa? 00:38:08:07 - 00:38:11:11 Preocupam me. Preocupa me 00:38:11:17 - 00:38:15:00 a parte da discriminação, 00:38:15:15 - 00:38:20:17 da exclusão das minorias. 00:38:22:08 - 00:38:27:03 Preocupo me com estes modelos. 00:38:27:08 - 00:38:30:24 As fugas de informação é um aspeto que ninguém está a falar. 00:38:31:00 - 00:38:33:05 Estes modelos demorou algum tempo a construir. 00:38:33:06 - 00:38:36:03 São muito caros por ser um impulso. 00:38:36:03 - 00:38:38:16 Mas imagino que destes modelos, 00:38:39:18 - 00:38:45:01 por acidente, capturava uma base de dados com informação sensível. 00:38:45:14 - 00:38:48:09 Informação de saúde por que é uma coisa que me preocupa muito. 00:38:48:21 - 00:38:49:09 Um número 00:38:50:19 - 00:38:52:03 elevado de pessoas. 00:38:52:18 - 00:38:55:08 Como é que faria 00:38:55:08 - 00:39:00:09 para repor a verdade ou para para que o modelo se esquecesse deste caso? 00:39:00:10 - 00:39:02:19 Portanto, também pode haver a situação de um museu 00:39:04:23 - 00:39:07:24 ser ser induzido 00:39:09:12 - 00:39:11:21 a capturar estatisticamente falsidades 00:39:13:03 - 00:39:15:18 e depois nós, da nossa conversa 00:39:15:18 - 00:39:19:08 com o chato CPT, começas a perpetuar esses falsidades. 00:39:19:08 - 00:39:24:06 Por exemplo, possa repetir 1000 vezes que Jorge é uma pessoa x y, z. 00:39:24:12 - 00:39:27:11 Propaganda propaganda é dito 00:39:27:20 - 00:39:30:19 não é uma mentira, uma verdade e uma mentira ditas. 00:39:30:19 - 00:39:31:07 Muitas vezes. 00:39:31:07 - 00:39:33:05 Eu encontrei não sei quantas referências a dizer, 00:39:33:05 - 00:39:35:01 portanto, obviamente, havia menos. 00:39:35:01 - 00:39:39:16 X um mês mais tarde foram os chatos precipitei. 00:39:40:17 - 00:39:42:20 Mas o que é o Jorge Correia? 00:39:42:20 - 00:39:45:21 É ele vai me dizer o que tem 00:39:45:21 - 00:39:46:14 e, portanto, 00:39:47:16 - 00:39:50:12 há riscos de manipulação 00:39:52:02 - 00:39:55:23 destas bases de informação estatística. 00:39:57:08 - 00:39:58:05 Além de que obviamente 00:39:58:05 - 00:40:00:21 que a base de informação seria construída 00:40:01:24 - 00:40:04:14 por pessoas e, portanto, o que lá é o que as pessoas lá quiserem 00:40:04:14 - 00:40:09:11 por os estiver do salário e se quiseres, lá por nós, digamos, 00:40:09:18 - 00:40:13:11 podemos omitir ou podemos pôr mentiras 00:40:13:13 - 00:40:16:04 e o modelo vai responder por essas. 00:40:17:01 - 00:40:20:15 Por essas e por essas e por essa informação. 00:40:20:15 - 00:40:22:10 Como é que se controla isso. 00:40:22:10 - 00:40:24:14 Ou está? 00:40:24:14 - 00:40:25:21 E esse é que eu acho que. 00:40:25:21 - 00:40:28:23 Porque se estou a pensar, por exemplo, 00:40:28:23 - 00:40:30:19 as nossas finanças, por exemplo, nós estamos lá. 00:40:30:19 - 00:40:34:16 O número de contribuinte é provavelmente o fenómeno mais universal? 00:40:34:19 - 00:40:37:06 Sim, para mim também preocupa de alguma maneira, porque aquilo, 00:40:37:06 - 00:40:40:02 se calhar aquela base vai muito para além daquilo que foi criada, 00:40:40:02 - 00:40:42:24 que foi paga aos seus impostos e serve essa parte? 00:40:43:09 - 00:40:44:24 Todos compreendemos. 00:40:44:24 - 00:40:47:14 Mas às tantas aquilo já vem bocadinho mais longe do que isso, 00:40:47:14 - 00:40:50:16 mas de qualquer forma está a passar nas mãos do Estado e, 00:40:50:16 - 00:40:53:09 portanto, eu, como cidadão, também posso ser um tribunal. 00:40:53:09 - 00:40:54:14 Foi uma estação? 00:40:54:14 - 00:40:57:14 Em princípio, sim. Mas mesmo nos sistemas 00:40:58:18 - 00:41:01:09 de geração imediatamente anterior 00:41:01:15 - 00:41:05:09 a este, esta nova vaga, por exemplo, nós temos 00:41:07:05 - 00:41:08:23 no espaço europeu 00:41:08:23 - 00:41:11:01 a diretiva do Direito ao esquecimento. 00:41:11:19 - 00:41:13:07 Alguém já conseguiu exercer isso? 00:41:13:07 - 00:41:15:00 Sim, sim, sim. Sim, sim. 00:41:15:00 - 00:41:18:06 Quem o escrever a uma determinada entidade e dizer escreve para finanças 00:41:18:06 - 00:41:20:07 não funciona. É melhor avisar as pessoas. 00:41:20:07 - 00:41:24:04 Mas eu tenho visto estatísticas sobre o número de pedidos 00:41:24:22 - 00:41:28:04 que são feitos por cada país. 00:41:28:04 - 00:41:31:04 E, no caso português, há muitos portugueses que já pediram 00:41:31:23 - 00:41:34:01 já exercer o seu direito ao esquecimento. 00:41:34:01 - 00:41:36:13 Dirigem se aos motores de busca. 00:41:36:13 - 00:41:38:00 Aos poucos, os desta vida a dizer ok, 00:41:38:00 - 00:41:41:19 toda a informação que vocês têm aqui sobre mim é que façam favor de apagar. 00:41:42:01 - 00:41:44:07 Não apaga, deixam de indexar. 00:41:44:20 - 00:41:47:05 Ok? Tanto quanto é que eles não podem. 00:41:47:13 - 00:41:49:14 Portanto, o que está publicado no site que eles não dominam, 00:41:49:14 - 00:41:53:16 não conseguem parar o site, mas sem referências a informação de site 00:41:53:16 - 00:41:56:16 e podem pedir que essas referências sejam eliminadas. 00:41:57:03 - 00:41:58:17 O que eu estava a referir é que ok, 00:41:59:19 - 00:42:01:02 mas estes modelos de 00:42:01:02 - 00:42:03:14 linguagem não têm estas referências todas 00:42:04:05 - 00:42:06:06 e portanto, em algum momento eles vão apagar. 00:42:06:06 - 00:42:08:07 Como é que eu vou atualizar estes modelos? 00:42:08:07 - 00:42:09:12 Se eu sou, sou, portanto. 00:42:09:12 - 00:42:12:14 Obviamente que estamos à espera. 00:42:12:14 - 00:42:14:20 E para dizer vamos falar que sim. 00:42:14:20 - 00:42:17:16 Mas eu estou com o chip. Sim, porque? 00:42:18:08 - 00:42:19:13 Porque é que? 00:42:19:13 - 00:42:20:12 Porque é que quer? 00:42:20:12 - 00:42:23:16 Agora, de repente, que se está a falar tantos que a questão segue? 00:42:23:23 - 00:42:26:19 Uma das razões que eu tenho ouvido para o facto 00:42:26:19 - 00:42:29:19 de outras empresas que já trabalham nisto 00:42:30:03 - 00:42:34:14 com mais esforço não terem feito é porque estavam com medo do risco. 00:42:34:14 - 00:42:37:23 Se agora, de repente se é ou planeia e decidiu 00:42:39:17 - 00:42:42:08 tornar este modelo público para as pessoas, 00:42:42:15 - 00:42:44:23 porque experimental é só brincar, etc. 00:42:45:04 - 00:42:47:04 Não há nenhum produto comercial. 00:42:47:04 - 00:42:49:08 Vamos poder começar a fazer perguntas sobre isso também. 00:42:49:11 - 00:42:52:10 Dizer quem é que está a fazer estas coisas é mais avançada 00:42:53:23 - 00:42:54:03 porque? 00:42:54:03 - 00:42:56:04 Porque eu dos mais avançados. 00:42:56:22 - 00:43:00:13 Será claramente a Google, claramente Facebook, 00:43:00:17 - 00:43:03:01 embora se diga que está a ficar um pouco para trás 00:43:04:02 - 00:43:07:23 e do lado chinês os os os grandes tecnológicos chineses. 00:43:08:18 - 00:43:14:02 Nós no mundo ocidental não falamos dele, não conhecemos não, não conhecemos. 00:43:14:02 - 00:43:17:15 Mas há ferramentas como é chato, etc. 00:43:17:24 - 00:43:21:15 Que têm mais utilizadores que nós 00:43:22:06 - 00:43:26:06 no Oriente, que nós todos no mundo ocidental, conjuntamente. 00:43:26:06 - 00:43:30:22 Temos, portanto, as gigantes tecnológicas também no mundo oriental. 00:43:31:07 - 00:43:34:20 E é porque eles estão a fazer o mesmo tipo de investimentos de desenvolvimento. 00:43:34:21 - 00:43:36:01 E não chegamos lá porque? 00:43:36:01 - 00:43:39:21 Porque não conseguimos compreendê los, porque essa informação 00:43:39:21 - 00:43:41:22 está mais escondida. 00:43:42:00 - 00:43:44:03 Eu gostava de saber o que é que quer, que 00:43:44:03 - 00:43:45:22 que é que de interessante os chineses estão a fazer, não é? 00:43:47:18 - 00:43:49:05 Sim, agora 00:43:51:18 - 00:43:52:11 a nossa cidade é 00:43:52:11 - 00:43:55:04 uma cidade muito mais aberta, incomparavelmente mais aberta. 00:43:55:18 - 00:44:00:24 E é no mundo ocidental temos uma língua franca, 00:44:01:06 - 00:44:05:07 o latim moderno, que se chama o inglês e que que é a linguagem 00:44:05:07 - 00:44:06:21 quase universal de comunicação. 00:44:06:21 - 00:44:11:10 Portanto, é muito mais fácil a informação e o conhecimento 00:44:11:20 - 00:44:15:00 fluir dentro do nosso mundo do que no mundo. 00:44:15:18 - 00:44:18:06 Onde a língua é diferente e a cultura. 00:44:18:06 - 00:44:19:08 É completamente diferente. 00:44:19:08 - 00:44:21:12 E, portanto, isso faz com que haja 00:44:22:14 - 00:44:24:23 muito mais dificuldade do nosso lado, 00:44:25:08 - 00:44:27:21 além de que o regime 00:44:29:01 - 00:44:30:24 político em vigor nessas. 00:44:30:24 - 00:44:33:07 Cidades é mais fechado e, portanto, não permite isso. 00:44:33:16 - 00:44:37:21 Então, quando é que a máquina inventa um raio de uma tradução simultânea decente 00:44:38:08 - 00:44:40:21 para eu poder acessar a guia e gravar um podcasts? 00:44:40:23 - 00:44:41:23 Com quem? 00:44:41:23 - 00:44:45:01 Com o chinês lá está em que eu falo português e ele fala 00:44:46:02 - 00:44:47:12 fala chinês, me fala mandarim 00:44:47:12 - 00:44:51:10 é que tudo isto faça sentido. 00:44:51:19 - 00:44:54:05 Eu não sou especialista em tradução. 00:44:54:10 - 00:44:56:08 Mas nós experimentamos as traduções. 00:44:56:08 - 00:45:00:08 Já existe, está muito porque senão se não existe, está muito perto de acontecer. 00:45:02:01 - 00:45:05:22 Eu lembro de ter estado na China há uns anos, 00:45:06:12 - 00:45:08:13 há menos de dez anos, mas há mais de cinco 00:45:09:04 - 00:45:11:15 e entrava no táxi 00:45:12:17 - 00:45:17:03 e e. Portanto, não havia qualquer dificuldade porque 00:45:18:06 - 00:45:22:07 ou falava ou ou eles pediam para digitar 00:45:22:21 - 00:45:26:18 o que queria da cria e imediatamente eles respondiam Portanto, 00:45:27:12 - 00:45:31:08 nós aqui que não nos socorremos antes essas ferramentas, por exemplo, lá. 00:45:31:08 - 00:45:32:18 Está temos o latim, inglês. 00:45:32:18 - 00:45:39:05 Temos exactamente, mas para hoje para os chineses, esse tipo de ferramentas 00:45:39:05 - 00:45:42:00 usamos com muito mais regularidade no dia a dia. 00:45:42:00 - 00:45:45:12 Não para de não para traduzir obras literárias, etc. 00:45:46:01 - 00:45:48:07 Mas para para as conversas do dia a dia. 00:45:48:11 - 00:45:51:20 Eu tenho ideia que essas ferramentas são usadas por muita gente 00:45:51:23 - 00:45:52:22 para comunicação franca. 00:45:52:22 - 00:45:58:20 Nós já falamos aqui em passagem na questão dos dados, no campo da saúde interessa. 00:45:59:06 - 00:46:04:14 Em particular, estamos sentados numa pilha gigantesca e valiosa de dados. 00:46:05:00 - 00:46:09:21 Ou estamos sentados numa completa anarquia de dados que estão lá, 00:46:10:07 - 00:46:13:20 mas que ainda não nos estão a servir para grande coisa. 00:46:13:20 - 00:46:14:10 Neste altura 00:46:15:12 - 00:46:18:03 estamos a falar da informação de saúde, enquanto em concreto. 00:46:18:11 - 00:46:21:06 Desde desde aquilo que está 00:46:21:06 - 00:46:26:03 desde os nossos registro, o nosso boletim de vacinas, por exemplo, 00:46:26:10 - 00:46:30:12 até aos nossos exames, todos os sítios onde vamos? Sim, 00:46:31:21 - 00:46:32:17 portanto, 00:46:33:11 - 00:46:35:04 neste domínio 00:46:36:23 - 00:46:39:14 nós temos feito uma evolução 00:46:41:16 - 00:46:46:10 muito, muito rápida e passámos a. 00:46:46:15 - 00:46:49:17 Tivemos tempo em que as notas dos médicos 00:46:50:00 - 00:46:53:00 eram escritas em papel e por último, vacinas. 00:46:53:00 - 00:46:55:17 Também era papel e hoje é tudo digital. 00:46:55:17 - 00:46:57:24 Está tudo na forma digital 00:46:57:24 - 00:47:02:07 e temos que os clínicos estão incrivelmente 00:47:02:16 - 00:47:07:00 mais sensibilizados para registar a informação. 00:47:07:11 - 00:47:10:20 Porque têm, têm uma noção do enorme valor 00:47:11:09 - 00:47:15:19 que pode ter no futuro registar essa informação. 00:47:15:19 - 00:47:19:17 Mas isso implica escrever à mão, além de depois ir conseguir beber as várias 00:47:19:17 - 00:47:24:05 fontes, sei lá as análises que eu acabei de fazer, de juntar tudo. 00:47:24:13 - 00:47:25:24 Esse é um dos grandes dilemas, 00:47:25:24 - 00:47:32:00 portanto, obviamente que hoje em dia já se usa a tecnologia para 00:47:33:13 - 00:47:35:22 para capturar muitas informação. 00:47:35:22 - 00:47:39:17 Por exemplo, se for fazer uma ecografia e muito provavelmente o médico 00:47:40:02 - 00:47:42:23 falará para um aparelho que faz 00:47:44:08 - 00:47:47:07 a gravação do áudio e depois faz a transcrição para o texto 00:47:47:19 - 00:47:51:02 e a seguir temos um assistente 00:47:52:04 - 00:47:57:16 pega nesse texto e produz, digamos, uma versão preliminar do relatório. 00:47:57:16 - 00:47:59:21 E vai fazer de vírgulas que não vai estar no Citius. 00:47:59:22 - 00:48:01:06 Faz uma validação final. 00:48:01:06 - 00:48:04:20 Está a permanentes muitos processos 00:48:05:07 - 00:48:07:11 em que a tecnologia digital 00:48:08:13 - 00:48:10:18 já é usada no dia a dia. 00:48:10:20 - 00:48:12:23 Mas eu estava a falar dando um passo à frente, que é 00:48:13:11 - 00:48:17:03 não só de que essa minha ecografia possa estar disponível nos vários sítios 00:48:17:03 - 00:48:19:24 ou vários médicos onde eu possa ir, como cruzada 00:48:19:24 - 00:48:22:08 com as minhas análises de sangue, como cruzada 00:48:22:08 - 00:48:25:17 com aquilo que o médico apontou sobre aquilo que pensamos exactamente. 00:48:26:07 - 00:48:30:20 Nós temos um projeto em curso no âmbito do Programa Carnegie Mellon Portugal, 00:48:31:21 - 00:48:33:23 com o Hospital da Luz, 00:48:33:23 - 00:48:36:05 em que olhamos precisamente para esse tipo 00:48:37:14 - 00:48:39:24 de tratamentos e, portanto, 00:48:39:24 - 00:48:42:21 realmente a informação laboratorial, 00:48:44:16 - 00:48:46:12 a informação 00:48:46:19 - 00:48:51:17 do registo clínico e a informação estruturada no sentido em 00:48:51:17 - 00:48:54:24 que o médico, quando testar uma consulta, escreve a marca 00:48:56:00 - 00:48:58:19 diabético, hipertenso 00:48:58:19 - 00:48:59:10 e marca. 00:48:59:10 - 00:49:02:22 Mas isso não vai aumentar muito a carga de trabalho do pessoal de saúde. 00:49:02:22 - 00:49:05:12 Estou a pensar uma coisa é aquilo que é o normal 00:49:05:12 - 00:49:08:10 que o médico já faz, ao que o enfermeiro faz outra coisa a dizer. 00:49:08:10 - 00:49:13:03 Bom, mas para isso ser mesmo perfeito, o médico pessoal tem que passar aqui 00:49:13:03 - 00:49:17:03 mais meia hora neste sistema que nós inventamos e escrever tudo 00:49:17:14 - 00:49:21:05 exatamente em caixinhas, em padrões, para que a informação já está recolhida. 00:49:21:14 - 00:49:23:03 Ou, pelo contrário, 00:49:23:03 - 00:49:25:12 vamos deixar que, naturalmente, cada profissional 00:49:25:12 - 00:49:29:08 faça o que tem para fazer e depois inventamos um bom sistema para beber. 00:49:29:22 - 00:49:34:02 Entre as coisas boas e as incongruências que possa haver nessa nesse descritivo. 00:49:34:18 - 00:49:37:12 O processo é um processo longo, 00:49:37:24 - 00:49:40:24 geracional e tem os seus dois lados. 00:49:41:09 - 00:49:44:00 Portanto, por um lado, 00:49:44:00 - 00:49:46:07 há um incentivo 00:49:46:07 - 00:49:49:05 para que a informação seja cada vez mais codificada, 00:49:50:03 - 00:49:53:09 com códigos de terminologias clínicas x centro 00:49:54:10 - 00:49:55:00 e, por outro. 00:49:55:00 - 00:49:58:10 Lado, é diabético, não é diabético, tem hipertensão, não tem hipertensão. 00:49:58:10 - 00:49:59:20 Porifera Exatamente. 00:49:59:20 - 00:50:01:01 Mas depois vem a outra parte. 00:50:01:01 - 00:50:03:03 Quer dizer que é parte humana em excesso? 00:50:03:10 - 00:50:05:13 O que é que eu acho o prognóstico. 00:50:05:13 - 00:50:07:12 É exactamente aí. 00:50:07:12 - 00:50:09:21 Hoje em dia, em particular 00:50:10:09 - 00:50:16:08 nos processos clínicos de alto nível, recorremos a linguagem e o texto. 00:50:16:09 - 00:50:19:18 Tantas notas clínicas escritas 00:50:20:13 - 00:50:22:12 pelos médicos continua a ser a norma. 00:50:22:12 - 00:50:24:20 E, portanto, subjectivas também nalguma parte do. Sujeito. 00:50:24:20 - 00:50:26:22 Mas a informação é 00:50:27:11 - 00:50:28:17 e é subjetiva. 00:50:28:17 - 00:50:34:01 Quer dizer que eu estava aqui a distinguir, dentro do processo clínico, 00:50:34:05 - 00:50:35:03 entre 00:50:35:19 - 00:50:40:24 a informação objectiva e factível que é igual à dos físicos e dos químicos, 00:50:40:24 - 00:50:45:20 que é dizer se é miligramas por decilitro, glucose e são decisões, 00:50:46:06 - 00:50:48:14 mas depois diremos quando, 00:50:48:22 - 00:50:52:07 quando e quando vai para os níveis mais altos. 00:50:52:07 - 00:50:55:24 Por exemplo, se está numa consulta de psiquiatria, 00:50:56:11 - 00:50:59:12 exceto, portanto, o que o médico está a registar. 00:51:00:07 - 00:51:03:05 A expressão ausente é só um 00:51:04:08 - 00:51:07:04 olhar distraído, qualquer coisa. 00:51:07:15 - 00:51:08:11 E isso é mais difícil. 00:51:08:11 - 00:51:11:24 São sinais e informação subjectiva, portanto, 00:51:12:14 - 00:51:15:08 que que depende do observador. 00:51:15:08 - 00:51:16:02 Não é, não é. 00:51:16:02 - 00:51:19:00 Não é uma medição com régua e esquadro, não é? 00:51:19:10 - 00:51:22:02 É que se pode verificar com uma máquina e uma medição 00:51:22:12 - 00:51:24:17 que é subjetiva e 00:51:26:18 - 00:51:29:13 neste caso, transitados dizem que que as máquinas 00:51:29:13 - 00:51:32:01 estão realmente muito longe e que 00:51:34:23 - 00:51:36:17 até para o humano. 00:51:36:17 - 00:51:38:19 Eu escrevo à mão porque? 00:51:38:19 - 00:51:44:08 Porque tenho dificuldade em codificar e exprimir o que é que está a ver. 00:51:44:13 - 00:51:47:05 Digamos, e sei que nós temos 00:51:47:23 - 00:51:50:07 os escritores e os sons estão 00:51:51:17 - 00:51:57:02 a recorrer se do léxico de linguagem, que são centenas de milhares de palavras 00:51:57:12 - 00:52:00:14 e não encontram palavras para aquilo que estão a ver 00:52:00:15 - 00:52:03:21 e, portanto, tentam fazer lhes uma descrição da situação. 00:52:03:21 - 00:52:06:15 É quase uma, uma epifania, uma intuição. 00:52:07:08 - 00:52:08:24 Exactamente do limite. 00:52:08:24 - 00:52:13:22 Portanto, e já agora, estamos aqui a falar da informação das máquinas, 00:52:13:22 - 00:52:17:04 a inteligência, a perceção de que as máquinas são imensamente boas. 00:52:17:12 - 00:52:18:09 Nós já não. 00:52:18:09 - 00:52:19:15 Mas eu imagino que 00:52:19:15 - 00:52:23:15 que que há 50 anos, quando apareceram as primeiras calculadoras às pessoas 00:52:23:16 - 00:52:29:00 e o pensava que era o demónio que se dizia não sei quantas centenas de cálculos 00:52:29:00 - 00:52:32:03 por minuto ou qualquer coisa do género que para nós agora fazemos 00:52:32:24 - 00:52:36:09 milhares de milhões por segundo e achamos normal. 00:52:36:11 - 00:52:39:06 Mas imagino que que a reação teria sido 00:52:39:15 - 00:52:43:09 quase a mesma quando as pessoas agora veem que é uma máquina que contabiliza 00:52:44:14 - 00:52:47:03 terabytes e portanto dez, 00:52:48:00 - 00:52:50:07 dez, levantava 12, não é 00:52:52:08 - 00:52:55:04 palavras e que 00:52:55:04 - 00:52:56:03 gera uma estatística. 00:52:56:03 - 00:52:58:12 Depois, com base nesta estatística, 00:52:59:21 - 00:53:03:12 produz sequências de palavras de acordo as probabilidades 00:53:04:13 - 00:53:05:22 de ocorrência de cada uma. 00:53:05:22 - 00:53:07:02 Achamos isto 00:53:07:17 - 00:53:10:21 que havia, mas é tão diabólico como era há 100 anos 00:53:11:22 - 00:53:14:00 fazer cálculos a uma velocidade que o humano 00:53:15:15 - 00:53:16:24 não nunca conseguiria acompanhar. 00:53:16:24 - 00:53:20:11 Então, e com tanta conjugação de dados objetivos e subjetivos 00:53:20:19 - 00:53:24:01 com realidades que são mensuráveis e outras que nem tanto, 00:53:24:23 - 00:53:26:12 e eu consigo imaginar 00:53:26:12 - 00:53:30:03 que estas bases de dados sejam francamente sozinhas de coisas. 00:53:30:13 - 00:53:34:06 Como é que de lá vamos retirar o que é importante e principalmente, 00:53:34:06 - 00:53:38:14 como é que descobri mos ambiguidades e contradições. 00:53:38:14 - 00:53:43:16 E agora lembrei me aqui de um bom exemplo muito básico que é como é que nós mesmo 00:53:44:11 - 00:53:48:01 podemos ir aos registos e notariado em busca de número de pessoas, certo? 00:53:48:01 - 00:53:49:24 Susana com e Susana com Z. 00:53:49:24 - 00:53:51:16 Certo Isto é uma ambiguidade. 00:53:51:16 - 00:53:54:07 São duas Susana ou é uma mesma Susana? 00:53:54:07 - 00:53:57:06 O que é que nós conseguimos peneirar isto? Como é que limpamos isto. 00:53:59:10 - 00:54:00:12 É para 00:54:00:24 - 00:54:04:16 tocar, digamos lá, na questão relacionada com o tema 00:54:05:17 - 00:54:09:18 da atualidade desses modelos de linguagem e que, 00:54:10:01 - 00:54:14:10 portanto, eles também usam, digamos, usam a estatística como instrumento. 00:54:14:19 - 00:54:18:19 Nós nas nos motores de busca, como Google. 00:54:18:19 - 00:54:24:01 O Google, quando faz uma pesquisa e depois apresenta o resultado, 00:54:24:12 - 00:54:27:11 o que o fez foi a realizar 00:54:27:12 - 00:54:29:17 uma base de dados de 00:54:29:18 - 00:54:32:11 muitos milhões de documentos, milhares de milhões de documentos 00:54:32:23 - 00:54:38:10 e depois ligamos se imagine que aparecia para uma dada pessoa e este era. 00:54:39:07 - 00:54:43:02 Imaginemos que era, por exemplo, António Guterres e provavelmente vai 00:54:43:05 - 00:54:44:04 se fizer uma pesquisa 00:54:44:04 - 00:54:48:00 e encontrará seguramente Guterres cristãos e em 1000 documentos. 00:54:48:09 - 00:54:51:07 Mas como apareceram 10.000 ou 100.000? 00:54:51:13 - 00:54:54:16 Como que o Google 00:54:54:16 - 00:54:55:08 dirá? 00:54:55:16 - 00:54:57:16 Aliás, se eu sei isso não fiz. 00:54:57:16 - 00:55:00:17 Mas se o fizesse agora, se escrevesse a António Guterres com Z, 00:55:01:05 - 00:55:03:06 eu dizia muito bem. 00:55:03:06 - 00:55:05:15 Vou lhe apresentar os resultados para António Guterres, 00:55:05:19 - 00:55:07:23 porque eu acho que você está enganado. 00:55:07:23 - 00:55:11:16 Mas se por acaso tiver acerto, confirme que é Guterres com Z. 00:55:11:23 - 00:55:16:19 Portanto, que que aconteceu o sistema percebeu, percebeu 00:55:16:19 - 00:55:21:06 que é muito mais frequente que Guterres com e com Z e imediatamente corrigiu. 00:55:21:12 - 00:55:21:18 Portanto, 00:55:22:18 - 00:55:24:19 estes sistemas fazem esta correção 00:55:24:19 - 00:55:26:19 com base nestas frequências relativas 00:55:28:19 - 00:55:32:00 e partem do princípio como a informação é ditada colectivamente 00:55:32:01 - 00:55:35:06 por todos nós, e portanto, se um dado facto 00:55:36:18 - 00:55:39:00 é registado 10.000 vezes 00:55:39:00 - 00:55:41:10 a dizer que a flor é Susana 00:55:41:18 - 00:55:44:06 com z e 100.000 que é com essa, 00:55:44:16 - 00:55:47:01 então eu vai dizer que com essa e não com Z. 00:55:47:07 - 00:55:51:23 E isso é o aproveitamento da inteligência coletiva 00:55:52:04 - 00:55:55:08 ou a ditadura da maioria. 00:55:56:01 - 00:56:01:08 Boa pergunta, porque às vezes dá me jeito saber que 00:56:01:18 - 00:56:05:15 que o Guterres é o Guterres, o Guterres, às vezes 00:56:06:03 - 00:56:08:20 a diversidade de ser uma outra coisa qualquer também, por. 00:56:09:04 - 00:56:11:19 Exemplo, que eu estava a dar, 00:56:11:20 - 00:56:15:12 digamos, houve o cuidado de dizer eu 00:56:16:23 - 00:56:19:00 também tenho aqui um Guterres com Z. 00:56:19:00 - 00:56:21:18 Se está à procura do Guterres com Z, então confirmo que é. 00:56:21:18 - 00:56:26:06 O que é que a maioria das pessoas procura com esta? 00:56:26:10 - 00:56:30:16 Portanto, isso é, diria que é o que é o respeito pela minoria. 00:56:30:23 - 00:56:33:09 Não é, portanto, que levar em consideração 00:56:34:01 - 00:56:38:07 que, quando se pesquisa Benfica, pode haver pessoas que morrem, 00:56:38:07 - 00:56:42:06 não morrem de um bairro de Lisboa que que não estejam propriamente interessados 00:56:44:13 - 00:56:46:04 no clube de futebol. 00:56:46:04 - 00:56:50:07 E, portanto, isso é isso é positivo. 00:56:50:07 - 00:56:51:05 E se nós fizermos isto 00:56:51:05 - 00:56:54:23 de uma forma responsável, como agora se diz acautelar, temos, 00:56:55:11 - 00:56:58:11 digamos, essa 00:56:58:18 - 00:57:01:05 esse direito de satisfazer 00:57:01:05 - 00:57:04:03 as necessidades de informação dos minoritários. 00:57:04:07 - 00:57:09:01 Se me preocupa mais, digamos, a forma como tudo isto é manipulável e manipulado. 00:57:10:00 - 00:57:11:03 Sem nós percebermos. 00:57:11:03 - 00:57:16:01 Sem nós percebermos, porque se coisas isto não é, digamos, não é um homem, um voto. 00:57:16:10 - 00:57:18:20 Porque se, pois os três sistemas são 00:57:21:02 - 00:57:23:13 muito não lineares, no sentido em que. 00:57:24:03 - 00:57:28:14 Se o Jorge é seguido por 10.000 pessoas e seguido por dez, 00:57:28:23 - 00:57:32:07 se o Jorge ser que é Guterres com Z, 00:57:32:13 - 00:57:37:04 essa opinião do Jorge vale 1000 vezes mais que a minha. 00:57:37:04 - 00:57:39:09 Lá estão os influências desta vida. 00:57:39:09 - 00:57:40:10 É exatamente. 00:57:40:10 - 00:57:43:09 Entretanto, a Europa criou um sistema e ainda bem 00:57:43:19 - 00:57:45:19 de apresentação dos dados privados. 00:57:46:02 - 00:57:50:07 Também conhecido pela sigla RG e Regulamento Geral de Protecção de Dados. 00:57:50:07 - 00:57:54:02 E eu olho para isto e digo sim muitas regras, muita dificuldade 00:57:54:03 - 00:57:55:12 para várias coisas. 00:57:55:12 - 00:57:58:02 Ponha lá aqui a cruzinha a dizer que autoriza os dados. 00:57:58:11 - 00:57:59:08 Não resolveu o problema 00:57:59:08 - 00:58:02:00 que eu continuou a receber telemarketing como se não houvesse amanhã. 00:58:02:09 - 00:58:05:08 E todavia, quando eu quero ter acesso uma informação legítima, 00:58:05:16 - 00:58:08:03 parece que não é desculpa perfeita que há sobre isso. 00:58:08:03 - 00:58:10:05 Não porque o RPD não permite. 00:58:10:05 - 00:58:12:15 Para um investigador e para um engenheiro? 00:58:12:22 - 00:58:15:02 Como é que se está a dar com este zelo? 00:58:15:09 - 00:58:16:13 Excesso ou 00:58:17:14 - 00:58:20:08 o mal necessário? 00:58:20:08 - 00:58:22:17 Porque o princípio da protecção de dados à partida 00:58:22:17 - 00:58:27:05 é uma coisa que eu abraço, consagrando com grande entusiasmo. 00:58:27:24 - 00:58:31:08 Como como, digamos, como utilizador 00:58:32:02 - 00:58:34:03 e como cidadão, 00:58:34:21 - 00:58:37:08 partilho a sua frustração. 00:58:37:08 - 00:58:40:04 Eu sou muito cioso da minha privacidade e, portanto, 00:58:40:20 - 00:58:44:10 não visite sites que não dão opção de eu 00:58:45:19 - 00:58:49:13 poder escolher quais são os tratamentos que são feitos 00:58:49:14 - 00:58:53:04 como informação, mas sim completamente esmagado. 00:58:53:07 - 00:58:57:03 Porque tem que responder 20 vezes por dia 00:58:58:09 - 00:59:00:03 a dizer que não quer. 00:59:00:03 - 00:59:04:02 Imagino que o contacto informal com as pessoas, 00:59:04:23 - 00:59:07:17 digamos, normais, que no dia a dia todos os 00:59:08:21 - 00:59:11:09 já decidiram, já já estão, digamos, 00:59:12:19 - 00:59:13:13 vacinados. 00:59:13:13 - 00:59:15:15 É pura e simplesmente dizer ok, aceitam tudo? 00:59:15:15 - 00:59:18:18 Ok, sim, para saber, para evitar aquilo que se vê. 00:59:18:18 - 00:59:22:08 Esta fotografia do não sei quantos a fazer, não sei conter a curiosidade 00:59:22:22 - 00:59:27:09 mata qualquer qualquer desejo de privacidade que as pessoas e portanto, 00:59:29:01 - 00:59:30:14 nesse aspecto 00:59:31:20 - 00:59:34:07 acho que a lei não teve, não teve grande sucesso. 00:59:35:17 - 00:59:38:18 Mas, por outro lado, acho que de alguma forma 00:59:38:19 - 00:59:42:17 tive bastante sucesso a limitar que se faz dentro 00:59:43:02 - 00:59:45:18 das empresas. 00:59:46:00 - 00:59:49:07 Regulou, no fundo, o uso da informação por parte das grandes empresas. 00:59:49:22 - 00:59:53:08 Em particular as grandes empresas, portanto, têm sempre centenas 00:59:53:08 - 00:59:54:18 de milhares de funcionários. 00:59:54:18 - 00:59:56:07 A porque autorregulação isso haverá. 00:59:56:07 - 00:59:59:00 Sempre um dia que uma empresa não compra, 00:59:59:09 - 01:00:02:00 haverá um dia um whistleblower 01:00:02:14 - 01:00:06:18 que alertará o resto da sociedade e, portanto, é um mecanismo 01:00:07:11 - 01:00:09:24 fortemente dissuasor por fazer 01:00:10:15 - 01:00:12:22 contra tratamentos abusivos de informação. 01:00:13:01 - 01:00:14:12 E ficamos mais atentos todos. 01:00:14:12 - 01:00:16:18 E esse foi o grande mérito da lei. 01:00:16:18 - 01:00:19:04 Eu acho que a nossa, eu acho que do ponto de vista 01:00:20:09 - 01:00:23:09 da sociedade, o efeito, o efeito da lei 01:00:23:09 - 01:00:26:00 está se a perder com uma vacina que depois vai perdendo. 01:00:26:10 - 01:00:29:02 E, portanto, eu acho que o meu a referir que vejo que muita gente 01:00:29:16 - 01:00:31:20 se sente assim, que se implica que sim a tudo. 01:00:32:09 - 01:00:35:21 Se o ser é só um clique, porque se é que não tem, não é. 01:00:36:12 - 01:00:40:05 E tem que se desligar dessa coisa que no fundo e é cansativo 01:00:40:05 - 01:00:42:13 do ponto de vista cognitivo, ter que dizer que não 01:00:42:13 - 01:00:44:04 e a perceber o que está dizer que não é sério 01:00:44:04 - 01:00:47:08 e portanto, as pessoas vão pelo mais simples, não é? 01:00:48:00 - 01:00:49:15 E é sem 01:00:50:16 - 01:00:53:01 chegar a ter o efeito dissuasor que estão. 01:00:53:01 - 01:00:58:14 A questão aqui que que eu acho é que há duas, dois aspectos que são preocupantes. 01:00:58:20 - 01:00:59:16 Primeiro, 01:01:00:22 - 01:01:05:15 esta lei é só para aqueles que cumprem a lei, para os que não cumprem a lei, 01:01:06:22 - 01:01:10:22 não tem problema nenhum e, portanto, dificulta e etc. 01:01:11:06 - 01:01:14:19 Mas, mas, portanto, continuamos e portanto, 01:01:14:19 - 01:01:18:06 por isso é que provavelmente continuam a receber emails, etc. 01:01:19:06 - 01:01:22:03 De empresas nas Caraíbas há coisas de gente que estão fora 01:01:22:03 - 01:01:27:19 da nossa jurisdição e que de uma forma que nós não sabemos exatamente como, 01:01:27:24 - 01:01:30:18 apenas respeitamos, digamos o seu, 01:01:31:21 - 01:01:35:08 os seus logos, os seus comportamentos, escolhas 01:01:36:17 - 01:01:40:02 e portanto, essa é uma preocupação em relação à pergunta inicial. 01:01:40:02 - 01:01:49:02 Tanto que me estão a fazer falar dos investigadores. 01:01:49:17 - 01:01:53:10 Eu sou presidente da Comissão de Ética do Instituto Superior Técnico e analiso 01:01:53:19 - 01:01:57:06 presentes dezenas de pedidos por ano de projetos de investigação. 01:01:57:15 - 01:02:01:02 E não consegui encontrar ninguém mais capaz para responder à pergunta. 01:02:01:02 - 01:02:03:12 E, portanto, vamos lá ver. 01:02:04:24 - 01:02:05:21 Antes 01:02:06:21 - 01:02:11:01 do RGPS, um investigador que fosse 01:02:12:02 - 01:02:15:15 sensato, que fizesse acordo a sua atividade 01:02:15:18 - 01:02:18:16 de acordo com os princípios que guiam, 01:02:19:10 - 01:02:21:20 digamos, a antologia da investigação. 01:02:23:13 - 01:02:25:10 Faria tudo 01:02:25:12 - 01:02:28:15 igual mendigo da mesma maneira que faz depois da lei, 01:02:28:15 - 01:02:31:20 com exceção de de comunicar 01:02:33:03 - 01:02:36:20 ao encarregado de proteção de dados que está a constituir 01:02:36:20 - 01:02:38:14 uma base de dados, etc. 01:02:38:14 - 01:02:40:13 Portanto, na boa prática, nada, mas. 01:02:40:13 - 01:02:44:10 Boas práticas desde desde os anos 50, 60, 01:02:45:22 - 01:02:49:00 na investigação clínica, no marketing, etc. 01:02:51:08 - 01:02:53:23 Costuma se dizer que dizemos que a lei 01:02:54:05 - 01:02:59:04 corporiza os comportamentos éticos que são, digamos que são 01:03:00:13 - 01:03:03:12 consensuais na sociedade e, portanto, coercivo. 01:03:03:17 - 01:03:08:18 E faz por ou pôr em letra de lei, 01:03:08:18 - 01:03:13:10 no fundo com penalizações, aquilo que era o comportamento 01:03:14:02 - 01:03:17:03 sensato consensual dos investigadores 01:03:17:03 - 01:03:20:24 antes do LGP. 01:03:22:11 - 01:03:24:02 O que? O que de alguma forma 01:03:25:24 - 01:03:27:00 alguma forma 01:03:27:00 - 01:03:31:06 se passa é que, 01:03:31:06 - 01:03:36:00 em particular com o advento de algumas tecnologias, 01:03:36:22 - 01:03:39:07 como como as da inteligência artificial 01:03:40:08 - 01:03:44:09 ou o uso para fins diferentes 01:03:44:10 - 01:03:48:06 daquilo com que que uma tecnologia foi foi desenvolvida 01:03:48:18 - 01:03:52:10 ou que lida com questões como organismos 01:03:52:10 - 01:03:55:23 geneticamente modificados, etc. 01:03:56:16 - 01:04:00:12 Passou a haver também no nosso ordenamento a obrigatoriedade 01:04:01:02 - 01:04:04:00 de estes projetos serem terem o acompanhamento 01:04:04:00 - 01:04:07:06 de uma Comissão de Ética, portanto, que é um grupo que de alguma forma 01:04:07:17 - 01:04:11:16 acompanha, supervisiona os investigadores e lhes dá, 01:04:12:16 - 01:04:15:14 digamos, digamos, um conforto de si. 01:04:15:16 - 01:04:20:03 Um dia houver questões éticas que sejam levantadas, 01:04:20:03 - 01:04:24:20 que possam ter, digamos, o grupo cénico a dizer não. 01:04:24:20 - 01:04:28:21 Mas eles seguiram as boas práticas e não fizeram isto isoladamente. 01:04:29:05 - 01:04:33:06 No laboratório, toma lembrar de um caso que deu a volta ao mundo há uns anos, 01:04:33:15 - 01:04:36:15 do investigador chinês que fez clonagem de humanos 01:04:36:24 - 01:04:39:21 sem a instituição onde eu estava a trabalhar, a saber e portanto, 01:04:39:21 - 01:04:44:03 e de repente viu se em apuros muito sérios e, portanto, de alguma forma, 01:04:44:13 - 01:04:48:04 quando, quando as coisas são feitas de acordo com os procedimentos, 01:04:48:04 - 01:04:53:00 o investigador que está, digamos, na linha de frente, 01:04:54:06 - 01:04:57:06 pelo menos tem, digamos, seguindo estes procedimentos. 01:04:57:13 - 01:05:01:11 Tem o apoio institucional e tem o apoio dos colegas 01:05:01:11 - 01:05:06:03 que foram informados antecipadamente do que do que iria fazer. 01:05:06:03 - 01:05:11:17 O tratamento que iriam fazer é que lhes ligamos a informação de que com 60 e. 01:05:12:03 - 01:05:14:06 Isso dá uma transparência ao processo para fechar. 01:05:14:06 - 01:05:16:05 Os dados, estamos a passar. 01:05:16:05 - 01:05:20:04 O que está a acontecer, então é que nas nossas organizações 01:05:20:23 - 01:05:22:23 nós estamos a ter 01:05:23:24 - 01:05:28:14 muitas, muitas, muitas situações em que investigadores 01:05:28:14 - 01:05:32:14 que não tinham estas práticas passaram a tê los porque passou a ser exigido. 01:05:33:08 - 01:05:37:12 Ok, não quer dizer que eles não fossem conscienciosos. 01:05:37:19 - 01:05:40:21 Estou a dizer que foram obrigados a formalizar, 01:05:41:07 - 01:05:43:15 a formalizar todos estes tratamentos. 01:05:43:23 - 01:05:47:00 E puxarmos a história, a nossa conversa. 01:05:47:00 - 01:05:49:22 Quanto tempo falta para que a inteligência artificial apanhe 01:05:50:00 - 01:05:51:02 a inteligência natural? 01:05:52:16 - 01:05:55:09 Essa é a pergunta do costume 01:05:55:09 - 01:05:57:17 e acho que na comunidade 01:05:57:17 - 01:06:02:00 há uma grande diversidade de opiniões, desde aqueles que dizem que 01:06:02:11 - 01:06:05:21 que são menos dez anos, outros que 01:06:05:21 - 01:06:08:13 que dizem que são mais 50 anos. 01:06:09:07 - 01:06:10:15 É uma pergunta 01:06:12:01 - 01:06:17:14 que vemos que suscita sempre reflexão. 01:06:18:22 - 01:06:20:21 Eu acho que vai faltar muito, mas 01:06:20:21 - 01:14:41:21 há coisas fundamentais.