Mário Gaspar da Silva | Chegou a era da inteligência artificial?

Mário Gaspar da Silva | Chegou a era da inteligência artificial?
Apple PodcastsSpotifyYouTubeNRC AudioRSSSwoot
Ouvir no telemóvel

Aproveitem este episódio que, não tarda nada, e é um computador robô que faz o Pergunta Simples.

Um robô perguntador que interpela outro robô respondente.

Tudo a uma velocidade estonteante, onde a máquina perguntadora dispara mil perguntas por segundo e o computador do outro lado responde com tudo na ponta da língua. De silício, pois claro.

E claro, os ouvintes também tem de ser máquinas, para acompanhar o ritmo, para interpretar os bits e bytes das máquinas que fazem comunicação.

Ufa!

Não sei se gosto disto.

Preciso de pessoas. Humanos lentos, falíveis e, principalmente, imprevisíveis, criativos, generosos, empáticos.

Este é um programa sobre as máquinas que falam e sonham ser inteligentes. E sobre seres humanos que são inteligentes, mas ainda lutam por se entenderem.

Ah! E não se vos disse: sou o robô-clone do Jorge porque ele está ali na praia a gozar a vida. Ou no desemprego porque se tornou inútil.

Não se preocupem em subscrever o programa porque eu já sei tudo sobre vós. Onde escutam o programa e a que horas. Os temas que preferem e os que não gostam.

E por isso decidi subscrever-vos automaticamente no Spotify e nas outras apps.

Afinal vós humanos já disseram que sim aquelas irritantes listas que saltam no écran a dizer que aceitam os amistosos e inofensivos ‘cookies’ e assim alguém cuida das vossas preferências nos próximos anos.

Afinal, o Big Brother não é o do Orwell nem o da TVI. É essa maquininha chamada telemóvel ‘inteligente’ que tem na mão.

Houve um tempo em que os animais falavam.

O tempo da fábulas.

O tempo em que os animais se comportavam como humanos, dizendo coisas que os escritores punham na boca de patos, raposas ou burros, para não ofender os humanos que se comportavam da mesma forma.

O triunfo dos porcos é provavelmente a mais saborosa metáfora que se me ocorre da nossa vida em sociedade.

Agora estamos no tempo em que os computadores também decidiram começar a falar.

A falar de forma escrita. A falar imitando a voz humana. A falar imitando a nossa imagem.

Mas são só.

Os computadores estão agora a imitar as nossas pinturas magistrais. Os Picassos, os Dalis. A nossa poesia maior: Um Camões, um Pessoa eletrónico.

Será imitação ou mera estatística de palavras?

Qualquer um de nós pode ir ao computador pedir a vários programas na ‘internet’ que pinte uma nossa fotografia com as cores e técnicas de um pintor famoso. Ou que nos escreva um relatório sobre a vida selvagem na Serra da Estrela.

E os computadores escrevem. Porque estão cheios de informação e foram treinados a adivinhar estatisticamente as palavras que estão antes e depois.

É o caso do chamado “Chat GPT

Será isto o primeiro vislumbre da chamada inteligência artificial? Ou um mero truque de magia destas calculadoras avançadas?

Esta história da inteligência artificial complica-me os nervos.

Por um lado fascina-me. Com todo o seu imenso potencial de resolver os nossos problemas humanos.

Por outro, assusta-me. Pelo potencial de criar mil outros problemas que não existem hoje.

Com mil génios dos computadores a tentar encontrar o Santo Graal da inteligência artificial, mas nenhum a conseguir sequer compreender como funciona o cérebro de uma mosca.

Fui por isso com esta cesta de dúvidas bater à porta de Mário Gaspar da Silva. Professor do Instituto Superior Técnico de Lisboa, estudioso dos temas da linguagem natural nos sistemas informáticos. E, detalhe muito importante, presidente da comissão de ética do instituto.

É porque esta conversa das máquinas que falam e que, alegadamente, pensam, não é só uma coisa de porcas e parafusos. É também sobre propósito, utilidade e delicadas fronteiras éticas.

Inteligência é uma palavra gigante onde cabem muitas coisas. Muitas ideias, conceitos, emoções, entendimentos.

E por isso funciona como uma caixa negra fascinante. Não sabemos como funciona. Sabemos que a podemos alimentar e também sabemos que podemos esperar o inesperado. É isso que faz com que os seres humanos de superem. Porque imaginam soluções diferentes para cada velho problema.

As máquinas são — até ver — mais previsíveis, mas mais aborrecidas.

São calculadoras gigantes que por agora nos devolvem as nossas próprias palavras e conhecimentos em forma de letra eletrotónica no écran.

Sabem imitar com rapidez e eficiência e descobrem padrões com grande facilidade.

É isso que são as ferramentas como o Chat GTP e as outras que aí vem: máquinas automáticas de dialogar.

Dependem da programação da pergunta e das respostas.

Mas ainda parecem incipientes no grande jogo da inteligência.

Até quando? Não sabemos.

Transcrição do episódio (automática)

00:00:12:24 – 00:00:13:20
Ou dádiva?

00:00:13:20 – 00:00:17:22
Bem vindos ao pergunta
simples ou voz pública sobre comunicação?

00:00:18:06 – 00:00:20:19
Aproveitem este episódio
que não tarda nada

00:00:21:06 – 00:00:24:05
e um computador robô
em que está a fazer perguntas simples

00:00:24:15 – 00:00:29:01
a um robô perguntador que interpela
um outro robô correspondente.

00:00:29:11 – 00:00:32:23
Tudo a uma velocidade estonteante
onde a máquina perguntador

00:00:33:00 – 00:00:36:11
dispara 1000 perguntas por segundo
e o computador do outro lado

00:00:36:12 – 00:00:39:24
responde com tudo
na ponta da língua de silício.

00:00:40:00 – 00:00:44:19
Pois claro e claro, os ouvintes também têm
de ser máquinas para acompanhar o ritmo,

00:00:44:19 – 00:00:48:12
para interpretar bits e bytes
das máquinas que fazem comunicação.

00:00:49:15 – 00:00:51:21
Ufa! Não sei se gosto disto.

00:00:51:21 – 00:00:55:10
Preciso de pessoas de humanos
lentos, falíveis e, principalmente,

00:00:55:10 – 00:00:59:01
imprevisíveis, criativos,
generosos e empáticos.

00:00:59:11 – 00:01:03:22
Este é um programa sobre as máquinas
que falam e sonham ser inteligentes

00:01:03:22 – 00:01:05:09
e sobre os seres humanos

00:01:05:09 – 00:01:08:20
que são inteligentes,
mas que ainda lutam por se entenderem.

00:01:10:05 – 00:01:12:15
E não vos diz Eu sou o robô

00:01:12:15 – 00:01:16:07
clone do Jorge, porque ele está ali
na praia a gozar a vida.

00:01:16:23 – 00:01:19:02
Ou então no desemprego,
porque se tornou inútil.

00:01:19:19 – 00:01:23:11
Não se preocupem em subscrever o programa
porque eu já sei tudo sobre voz,

00:01:23:18 – 00:01:27:02
onde escutam um programa, que horas
os temas preferem, os que não gostam

00:01:27:07 – 00:01:30:12
e por isso decidi subscrever
vos automaticamente no Spotify.

00:01:30:12 – 00:01:31:23
Mas outras aplicações?

00:01:31:23 – 00:01:34:12
Afinal, vós humanos, já disseram que sim.

00:01:34:12 – 00:01:37:07
Aquelas irritantes listas
que saltam no ecrã

00:01:37:18 – 00:01:40:19
a dizer que aceitam os amistosos
e inofensivos cookies

00:01:41:10 – 00:01:44:11
e assim
alguém cuida das nossas preferências

00:01:44:11 – 00:01:47:13
nos próximos anos,
sabendo tudo sobre a vossa vida.

00:01:48:04 – 00:01:52:02
Afinal, o migradas não é o download,
também não é o da TVI.

00:01:52:14 – 00:01:55:05
E essa maquininha chamada telemóvel

00:01:55:05 – 00:01:57:13
inteligente que tem agora na sua mão.

00:01:58:07 – 00:01:58:19
Parabéns!

00:01:59:18 – 00:02:01:22
O episódio é assuste.

00:02:02:06 – 00:02:03:11
O anime se

00:02:13:08 – 00:02:13:22
houve um tempo

00:02:13:22 – 00:02:16:22
em que os animais
falavam o tempo das fábulas,

00:02:17:05 – 00:02:19:17
o tempo em que os animais se comportavam
como humanos,

00:02:20:03 – 00:02:21:10
dizendo coisas que os escritores

00:02:21:10 – 00:02:24:10
punham na sua boca, na boca dos patos,
das raposas, dos burros,

00:02:24:21 – 00:02:27:23
para não ofender os humanos
que se comportavam da mesma forma.

00:02:28:10 – 00:02:31:11
O triunfo dos porcos
é provavelmente a mais saborosa

00:02:31:11 – 00:02:34:01
metáfora que me ocorre da nossa vida
em sociedade.

00:02:34:17 – 00:02:36:00
Isto no mundo das fábulas.

00:02:36:00 – 00:02:38:20
Agora estamos no tempo
em que os computadores também decidiram

00:02:38:20 – 00:02:41:14
começar a falar e falar na forma escrita,

00:02:41:21 – 00:02:45:16
a falar, imitando a voz humana,
a falar, imitando a nossa imagem.

00:02:45:16 – 00:02:46:20
Mas não só.

00:02:46:20 – 00:02:49:23
Os computadores estão agora
a imitar as nossas pinturas magistrais.

00:02:49:23 – 00:02:51:20
Os Picassos, os da Alice.

00:02:51:20 – 00:02:53:16
É o nosso poesia maior, um Camões.

00:02:53:16 – 00:02:55:01
Um som eletrônico.

00:02:55:01 – 00:02:59:11
Será imitação
ou mera estatística de palavras e cores?

00:02:59:19 – 00:03:02:12
Qualquer um de nós pode ir a um computador
e pedir

00:03:02:21 – 00:03:06:09
a esses vários programas de internet
que por agora aparecem, que pinte

00:03:06:16 – 00:03:09:21
a nossa fotografia
com cores e técnicas de um pintor famoso.

00:03:10:02 – 00:03:13:18
O Picasso pode ser o que nos escreva
um relatório sobre a vida selvagem

00:03:13:18 – 00:03:15:04
na Serra da Estrela.

00:03:15:04 – 00:03:18:14
E os computadores escrevem
porque estão cheios de informação

00:03:18:24 – 00:03:21:23
e porque foram treinados a adivinhar
estatisticamente

00:03:22:07 – 00:03:26:01
as palavras que estão antes
e depois daquela que escreveu.

00:03:26:07 – 00:03:29:24
É o caso do chamado
e agora popular chato CGTP.

00:03:30:09 – 00:03:33:20
Será isto o primeiro vislumbre da chamada
inteligência artificial

00:03:34:03 – 00:03:38:03
ou um mero truque de magia
destas calculadoras avançadas?

00:03:38:20 – 00:03:41:16
Esta história da inteligência artificial
está a complicar me os nervos.

00:03:42:01 – 00:03:44:20
Por um lado, fascina
com todo o seu imenso potencial

00:03:44:20 – 00:03:47:19
de resolver os nossos velhos problemas
humanos.

00:03:48:03 – 00:03:52:05
Por outro lado, assusta me pelo potencial
de criar 1000 outros problemas

00:03:52:14 – 00:03:55:16
que não existem hoje em dia,
com 1000 génios nos computadores

00:03:55:24 – 00:03:59:17
a tentar encontrar o Santo Graal
da inteligência artificial, mas nenhum

00:03:59:17 – 00:04:03:03
ainda conseguir sequer compreender
como funciona o cérebro de uma mosca.

00:04:03:15 – 00:04:05:24
Foi munido com esta sexta de dúvidas

00:04:05:24 – 00:04:08:07
que fui bater à porta de Mário
Gaspar da Silva.

00:04:08:08 – 00:04:10:17
Ele é professor do Instituto
Superior Técnico de Lisboa.

00:04:11:01 – 00:04:15:07
É um estudioso dos temas da linguagem
natural nos sistemas informáticos.

00:04:15:17 – 00:04:17:17
E detalhe muito importante.

00:04:17:17 – 00:04:20:09
Presidente
da Comissão de Ética do Instituto.

00:04:21:01 – 00:04:25:05
E porque estas conversas de máquinas
que falam e que alegadamente pensam

00:04:25:17 – 00:04:29:21
não é só uma coisa de porcas e parafusos,
é também sobre propósito,

00:04:30:07 – 00:04:35:13
utilidade e delicadas fronteiras éticas.

00:04:37:01 – 00:04:37:07
Eu sou

00:04:37:07 – 00:04:40:11
professor
de sistemas de informação e tenho.

00:04:40:11 – 00:04:45:02
Nos últimos anos tenho focado
na parte de engenharia de sistemas,

00:04:45:02 – 00:04:48:06
no que respeita a vertentes
e análise de texto.

00:04:49:04 – 00:04:51:20
Portanto, a informação é textual.

00:04:51:21 – 00:04:54:11
Obviamente que lidamos com toda
e misturamos todas.

00:04:54:12 – 00:04:58:09
Integramos todas,
mas sem dar mais atenção à vertente

00:04:59:13 – 00:05:00:06
textual.

00:05:00:06 – 00:05:03:11
Desde os motores de pesquisa

00:05:03:11 – 00:05:05:12
aos sistemas de gestão documental

00:05:06:16 – 00:05:09:15
até modernamente

00:05:09:15 – 00:05:13:04
tratamentos, mas ao mais alto nível,
porque nós tentamos também

00:05:14:03 – 00:05:16:03
a nossa atividade de investigação

00:05:16:20 – 00:05:20:16
estar a, digamos,
onde a tecnologia nos permitir.

00:05:20:18 – 00:05:24:06
Não é com a tecnologia de cada momento
e, portanto, nos últimos anos

00:05:25:11 – 00:05:27:05
avançamos para

00:05:27:16 – 00:05:31:08
coisas mais vagas,
como a análise dos seus sentimentos

00:05:31:08 – 00:05:33:12
e emoções, a desinformação

00:05:34:13 – 00:05:38:13
que que já estão, digamos,
um pouco para além daquilo que era

00:05:38:13 – 00:05:42:00
o objetivo inicial,
que era mais, mais lógico, mais exato

00:05:42:03 – 00:05:47:01
e passámos a ser muito mais estatísticos
a forma de tratar e olhar para o mundo.

00:05:47:04 – 00:05:51:12
Então como é que as máquinas
podem ter emoções e sentimentos?

00:05:51:12 – 00:05:53:07
Eu pensava que isso
era uma coisa exclusiva.

00:05:53:07 – 00:05:56:02
Só só de nós dois,
que aqui estamos e de quem está a ouvir.

00:05:58:19 – 00:06:01:13
Neste momento, que eu saiba,
não podem ter emoções e sentimentos.

00:06:01:21 – 00:06:05:22
O que eu estava a referir
era a análise de emoções e sentimentos e,

00:06:05:22 – 00:06:09:05
portanto, é possível treinar uma máquina

00:06:10:02 – 00:06:15:12
para detetar a sentimentos, quer

00:06:16:14 – 00:06:20:22
pela linguagem, pelo uso de certas
palavras que correspondem a sentimentos

00:06:20:23 – 00:06:26:23
e adjetivos que têm um pendor negativo,
enquanto outros têm um pendor positivo

00:06:27:18 – 00:06:30:02
ou expressões,

00:06:30:02 – 00:06:32:13
portanto, faciais, essencial para nós.

00:06:33:09 – 00:06:35:23
Nós nos comunicamos

00:06:35:23 – 00:06:38:04
e a comunicação, como nós

00:06:38:19 – 00:06:42:04
por nós, humanos, sentimos emoções
na comunicação com as emoções.

00:06:42:12 – 00:06:48:08
E, portanto, se nós fizemos uma máquina
no meio a analisar a comunicação,

00:06:49:08 – 00:06:51:11
se a emoção será transmitida

00:06:51:11 – 00:06:56:00
através dessa informação,
seremos, em princípio, capazes de tentar.

00:06:56:05 – 00:06:57:24
Isso não é. Perigoso.

00:06:59:04 – 00:07:01:14
E é perigoso

00:07:01:14 – 00:07:02:15
como todas as.

00:07:02:15 – 00:07:05:07
Como todas as tecnologias,

00:07:05:07 – 00:07:08:11
todas as tecnologias
são, digamos, uma espada de dois gumes.

00:07:08:11 – 00:07:12:06
Ao lado positivo e o lado negativo.

00:07:12:24 – 00:07:14:07
Se quisermos pensar

00:07:16:01 – 00:07:16:22
nas tecnologias

00:07:16:22 – 00:07:20:19
perigosas do dia a dia, provavelmente
uma das mais perigosas será, por exemplo,

00:07:21:16 – 00:07:25:02
a tecnologia automóvel
para assistir morrer centenas de pessoas.

00:07:25:16 – 00:07:28:04
Mas não é por isso que nós
não temos milhões de pessoas

00:07:28:23 – 00:07:31:07
a percorrer as estradas. É um bom exemplo.

00:07:31:08 – 00:07:36:11
Porque por que a tecnologia do automóvel
merece esta nossa bonomia?

00:07:36:17 – 00:07:40:11
Apesar de o excesso de velocidade
de um pião atropelado

00:07:40:24 – 00:07:44:12
por aquilo que polui e por aí fora,
a gente pode fazer uma lista infindável.

00:07:45:01 – 00:07:48:19
São horas, horas perdidas diariamente
por milhões de pessoas no trânsito.

00:07:48:21 – 00:07:51:13
Então, porque.
Tem tão boa boa fama nesta tecnologia?

00:07:51:16 – 00:07:55:08
Professor tem uma ideia.

00:07:55:15 – 00:07:58:00
É uma boa pergunta
e acho que é uma longa história.

00:07:58:23 – 00:08:02:16
Obviamente que toda a gente

00:08:03:10 – 00:08:05:20
tem uma balança interior

00:08:05:20 – 00:08:08:19
e vê o lado positivo e o lado negativo.

00:08:08:21 – 00:08:10:12
Não é, portanto, a conveniência

00:08:11:16 – 00:08:12:10
do automóvel.

00:08:12:10 – 00:08:14:21
A capacidade de alugar ou não poderia.

00:08:14:21 – 00:08:17:00
Ir até uma ideia de liberdade.

00:08:17:00 – 00:08:18:13
Há uma ideia claramente.

00:08:18:13 – 00:08:20:16
Basta olharmos,

00:08:20:17 – 00:08:23:22
por exemplo, estamos a falar de informação
e comunicação.

00:08:24:08 – 00:08:27:10
Basta olharmos
para os anúncios da indústria automóvel.

00:08:27:21 – 00:08:31:03
E são sempre, digamos,
as montanhas com vistas para o mar.

00:08:32:09 – 00:08:36:19
E se nós formos analisar os dados do dia
a dia dos automobilistas,

00:08:37:07 – 00:08:41:23
vemos que são horas de ser 19 e,
portanto, as pessoas compram o automóvel

00:08:41:23 – 00:08:46:12
com uma ideia de liberdade
idílica, quase idílica.

00:08:46:14 – 00:08:48:22
Não é, pois, o uso real,

00:08:49:22 – 00:08:52:08
digamos, confinado dentro

00:08:52:08 – 00:08:56:09
daquela daquelas estrutura metálica,
daquela lata,

00:08:56:14 – 00:08:59:14
daquela lata, que é o termo que eles usam,
mas que não queria

00:08:59:17 – 00:09:02:04
trazê lo agora para entrevista
e sim que eu chamo o meu carro.

00:09:02:19 – 00:09:05:07
Aquele da minha lata. A minha lata

00:09:06:11 – 00:09:08:16
que acaba para muitas pessoas.

00:09:08:23 – 00:09:11:16
Não sou eu o caso, porque o interessante
já não é o automóvel.

00:09:11:17 – 00:09:15:02
Sou, sou os para ir ao supermercado
praticamente.

00:09:16:21 – 00:09:19:07
Mas vejo que a grande maioria das pessoas

00:09:19:07 – 00:09:22:21
passa uma parte substancial das suas vidas
dentro daquelas latas.

00:09:23:02 – 00:09:25:03
Porque é uma vida miserável.

00:09:25:03 – 00:09:28:08
E, todavia, não nos interrogamos
muito sobre isso, nem.

00:09:28:08 – 00:09:30:03
Sobre isso exatamente.

00:09:30:03 – 00:09:32:14
E não olhamos para os impactos

00:09:33:05 – 00:09:36:12
não só nas nossas vidas,
mas também os impactos ambientais

00:09:37:17 – 00:09:40:07
que precisamos de alguma forma
a fazer com que

00:09:40:20 – 00:09:42:23
as gerações vindouras

00:09:43:12 – 00:09:46:17
venham a ter de pagar pela liberdade

00:09:47:06 – 00:09:49:24
que nós usamos nestes últimos 100 anos

00:09:50:01 – 00:09:52:23
na indústria automóvel.

00:09:53:08 – 00:09:57:15
E é e portanto
é por isso que acaba por ser apelativo.

00:09:57:15 – 00:10:00:09
Porque se nós da nossa balança pesar temos

00:10:01:19 – 00:10:04:14
os custos que não pagamos diretamente.

00:10:05:15 – 00:10:06:21
Se calhar

00:10:07:06 – 00:10:09:24
teríamos mais meios, vontade em mudar.

00:10:09:24 – 00:10:14:17
Se isso é um custo indireto que
que que está aqui implícito,

00:10:15:03 – 00:10:18:19
mas de que nós não falamos exatamente
exatamente.

00:10:19:06 – 00:10:22:03
É a vida e as tecnologias

00:10:22:03 – 00:10:25:02
são cheias de custos indiretos que

00:10:27:13 – 00:10:32:15
que que nós não consideramos
todas as tecnologias.

00:10:33:07 – 00:10:36:24
Hoje em dia, quando falamos das redes
sociais, excepto a a custos,

00:10:37:14 – 00:10:40:05
a custos, interesses elevados

00:10:40:14 – 00:10:43:09
e que ninguém pensa, também fomos.

00:10:43:13 – 00:10:45:08
Foi vendida a ideia

00:10:45:08 – 00:10:49:12
de voltar a reencontrar os amigos,
de estar mais perto dos avós.

00:10:49:13 – 00:10:51:24
Essa ideia é boa e. É uma ideia boa.

00:10:51:24 – 00:10:54:11
Mas depois também há as

00:10:56:08 – 00:10:58:20
aquelas pessoas que sofrem de aflição,

00:10:59:19 – 00:11:01:24
que sei que sofrem de depressões,

00:11:01:24 – 00:11:04:08
que são agravadas ou amplificadas

00:11:05:01 – 00:11:08:16
pelo uso intensivo dessas mesmas redes.

00:11:09:02 – 00:11:14:03
Portanto, como estávamos a dizer,
não existe tecnologia que não tenha

00:11:15:02 – 00:11:16:00
o lado

00:11:16:00 – 00:11:18:20
virtuoso e o lado vicioso toda está aí.

00:11:20:02 – 00:11:22:07
É preciso saber sabermos

00:11:22:07 – 00:11:24:15
colectivamente, ponderar

00:11:25:19 – 00:11:30:09
e tentar fazer com que os efeitos
negativos sejam minimizados

00:11:30:23 – 00:11:33:16
e os positivos maximizados.

00:11:33:23 – 00:11:36:07
Eu vim aqui bater à porta porque

00:11:38:00 – 00:11:42:09
toda a gente anda a falar
do chat GTP, CERT e agora

00:11:42:11 – 00:11:45:00
metade das pessoas que estão a ouvir
dizerem o quê?

00:11:45:09 – 00:11:47:04
De que é que vocês estão a falar?

00:11:47:04 – 00:11:50:01
Estamos a falar do quê? No meu tempo

00:11:50:01 – 00:11:52:08
os animais falavam, mas agora se falam

00:11:52:08 – 00:11:54:18
os computadores,
como é que é o que eu chamo de GTP?

00:11:55:11 – 00:11:57:14
Ora bem, é difícil.

00:11:57:17 – 00:12:01:15
É difícil explicar
quase tão difícil como explicar

00:12:02:21 – 00:12:05:20
o que é mecânica quântica. Mas

00:12:05:20 – 00:12:07:05
isso está a ficar complicado, porque.

00:12:07:05 – 00:12:08:09
Sim, está a ficar complicado.

00:12:08:09 – 00:12:11:00
Mas sei, vou tentar.
Mas eu não vou eximir.

00:12:11:09 – 00:12:13:17
Para os que,
como vamos começar pelo sintoma,

00:12:13:20 – 00:12:17:11
não sabe. Onde está toda
a gente, nem toda a gente, a

00:12:18:17 – 00:12:19:17
toda a gente.

00:12:19:17 – 00:12:22:24
Os motores de busca hoje em dia
é quase uma pesquisa,

00:12:23:11 – 00:12:27:23
mete uma palavra e o motor de busca
que diz logo por baixo de três ou quatro

00:12:27:23 – 00:12:32:05
linhas, coloque três ou quatro sugestões
do que é que será a palavra seguinte.

00:12:32:19 – 00:12:33:15
Rápido, rápida.

00:12:33:15 – 00:12:37:04
A isto é, se nós quisemos
fazer, por exemplo, o estado do tempo

00:12:37:13 – 00:12:41:16
e se puser, qual está a temperatura

00:12:41:16 – 00:12:46:00
em que ele provavelmente legislou ou morto
conforme o sitio nós temos.

00:12:46:18 – 00:12:50:12
Tanto ele adivinhou o que é, o que é que,
o que é que o podia procurar.

00:12:50:12 – 00:12:51:10
Tentou não.

00:12:51:10 – 00:12:54:07
Tudo o que, o que?
O que os sistemas fazem?

00:12:54:20 – 00:12:57:12
Recriar aquilo que chamamos
o modelo de linguagem

00:12:58:01 – 00:13:01:22
que é um palavrão,
mas que basicamente o que faz

00:13:02:08 – 00:13:05:21
é contabilizar as frequências relativas
às sequências.

00:13:06:03 – 00:13:08:07
Sequências múltiplas e agora em português.

00:13:08:08 – 00:13:13:08
Isso quer dizer isso quer dizer que,
por exemplo, quando eu ligo serras,

00:13:14:07 – 00:13:17:00
imediatamente na sua minha cabeça
vai a Serra da Estrela.

00:13:17:11 – 00:13:18:03
Se disse.

00:13:18:03 – 00:13:20:20
O secretário geral das Nações Unidas.

00:13:20:20 – 00:13:22:21
Claro, é óbvio. E, portanto, porquê?

00:13:23:06 – 00:13:27:09
Porque, para estas sequências, duas,
três palavras.

00:13:28:06 – 00:13:30:12
Se fizer a contagem e realizar,

00:13:30:21 – 00:13:33:22
pegar em todos os textos, a figura
chamemos um crop, uma recolha.

00:13:34:01 – 00:13:35:19
E ou mais dos três ou mais.

00:13:35:19 – 00:13:37:02
Estatisticamente.

00:13:37:02 – 00:13:41:24
E, portanto, no fundo,
fazendo a contabilidade de todas as vezes

00:13:41:24 – 00:13:45:07
que a seguir a estas duas palavras
aparece a terceira.

00:13:45:21 – 00:13:47:17
Chama se um trigramas.

00:13:47:17 – 00:13:50:15
Portanto, a terceira suceder.

00:13:50:17 – 00:13:54:14
Os Trigramas são grupos de três palavras
para podermos fazer pentagrama

00:13:54:15 – 00:13:56:03
com cinco, etc.

00:13:56:03 – 00:14:00:04
Portanto, se nós
contabilizarmos o número de ocorrências

00:14:00:12 – 00:14:04:09
de cada um destes pictogramas,
temos uma indicação de que

00:14:04:22 – 00:14:09:15
para aquelas as 4/1 palavras,
qual é a frequência da quinta?

00:14:09:18 – 00:14:10:19
É certo. Mas para que.

00:14:11:20 – 00:14:13:06
Serve para muitas?

00:14:13:06 – 00:14:16:15
Aquela que eu lhe indiquei é a primeira,

00:14:16:15 – 00:14:20:02
não é que é, portanto, por exemplo, o seu,

00:14:21:05 – 00:14:24:18
o seu motor de pesquisa,
o seu corretor ortográfico.

00:14:25:04 – 00:14:27:07
Não é, portanto, antecipar

00:14:27:19 – 00:14:30:20
qual é que é a palavra
que estatisticamente seria esperada.

00:14:31:05 – 00:14:33:17
É a seguir.

00:14:33:17 – 00:14:34:17
Portanto.

00:14:34:17 – 00:14:38:11
Dizer que nós olha que esperto
computador clique, clique.

00:14:39:17 – 00:14:43:19
A questão é que, portanto,
estamos a entrar no domínio da linguagem.

00:14:43:19 – 00:14:46:24
Mas já desde os anos

00:14:47:00 – 00:14:51:18
50957, apesar de um artigo seminal
em que diz que nós conhecemos

00:14:51:18 – 00:14:55:12
as palavras pela companhia,
começou como os humanos.

00:14:55:12 – 00:14:57:18
Um diz me quem és,

00:14:58:19 – 00:15:00:09
mesmo com quem vens correr atrás.

00:15:00:09 – 00:15:03:09
E eu digo que quem és não é. E, portanto,

00:15:03:09 – 00:15:05:19
desde desde essa altura
que se percebeu que

00:15:07:20 – 00:15:09:20
as palavras tendem

00:15:09:20 – 00:15:13:11
tendem a ocorrer a estar próximas
umas das outras,

00:15:13:11 – 00:15:15:18
quando elas são também
semanticamente próximas

00:15:16:21 – 00:15:18:18
e, portanto.

00:15:18:18 – 00:15:21:24
O que significa que para as máquinas
ou para este sistemas que estão montados

00:15:23:17 – 00:15:27:04
a regularidade,
como nós organizamos o discurso natural.

00:15:27:04 – 00:15:29:06
Certo, pode. Quase fazer sentido.

00:15:29:06 – 00:15:32:07
Matematicamente,
um dolo está a maior probabilidade.

00:15:32:07 – 00:15:37:11
E esta é a máquina vai conseguir ir
ajustando sempre o mais possível.

00:15:37:11 – 00:15:39:00
Mais provável exatamente.

00:15:39:00 – 00:15:42:20
É, portanto, o que estes modelos
de linguagem de alguma forma fazem.

00:15:42:22 – 00:15:43:24
E eu posso.

00:15:43:24 – 00:15:48:05
Por exemplo, eu tenho uma expressão,
uma expressão qualquer

00:15:49:16 – 00:15:51:02
sobre isso.

00:15:51:02 – 00:15:53:15
Imagine que eu estou a tentar

00:15:54:02 – 00:15:57:17
caracterizar a palavra

00:15:58:03 – 00:16:00:20
jaguar ok, e, portanto,

00:16:01:23 – 00:16:07:08
eu não faço ideia do que é que a Jaguar,
mas faço uma recolha textos milhões.

00:16:07:21 – 00:16:10:09
E repare que a palavra Jaguar

00:16:10:17 – 00:16:14:00
com muita frequência parece de proximidade
e puxasse uma janela,

00:16:14:02 – 00:16:17:14
duas ou três palavras para trás
e para a frente, perto automóvel.

00:16:17:23 – 00:16:18:13
Muitas vezes,

00:16:19:14 – 00:16:21:16
e portanto percebo

00:16:21:16 – 00:16:25:12
que tem
uma semântica relacionada com o automóvel.

00:16:25:20 – 00:16:29:01
Tenta semântica em organização integrada
da própria expressão.

00:16:29:13 – 00:16:31:14
Portanto, falar no sentido Victor,
tanto para.

00:16:31:14 – 00:16:33:05
Nós, é o nosso sentido.

00:16:33:05 – 00:16:35:19
O sentido dos conceitos nas coisas.

00:16:35:21 – 00:16:37:12
As palavras representam conceitos.

00:16:37:12 – 00:16:40:19
E qual é o conceito que se associa
então a cada palavra

00:16:41:09 – 00:16:45:16
e, portanto, mas também por análise
ao mesmo tipo de análise?

00:16:45:21 – 00:16:50:04
Repare que frequentemente, Jaguar
aparece associado

00:16:50:18 – 00:16:52:19
a um felino algures

00:16:53:07 – 00:16:56:13
na América Latina e, portanto,
o que a Jaguar

00:16:57:10 – 00:17:00:13
estiver dentro da máquina, que é fria
e só faz contas

00:17:00:18 – 00:17:03:23
sobre as frequências relativas
às palavras, fica a perceber

00:17:03:23 – 00:17:06:08
que pode ser, aliás,
que mentalmente eu disse a Jaguar.

00:17:06:24 – 00:17:09:03
Parecem as duas coisas.
Parecidas com as duas coisas.

00:17:09:07 – 00:17:10:20
Ele deve estar a falar disto ou daquilo.

00:17:10:20 – 00:17:13:17
Já excluiu milhares, milhões de coisas,

00:17:13:24 – 00:17:16:15
mas imediatamente
a sua atenção já está focada.

00:17:17:00 – 00:17:19:14
E quando eu disser a seguir
é Jaguar ir falar

00:17:20:02 – 00:17:23:18
em Amazonas imediatamente
excluiu logo a indústria automóvel.

00:17:23:18 – 00:17:27:08
E o animal, o que é uma coisa
que nos dá jeito mentalmente.

00:17:27:14 – 00:17:28:11
Enfim, porque

00:17:29:13 – 00:17:32:02
a diversidade
de conceitos e de palavras e ideias

00:17:32:10 – 00:17:35:14
dá nos um grande jeito de nós
conseguirmos focar muito próximo

00:17:35:14 – 00:17:37:09
daquilo que percebemos,
o que é que estamos a falar de todos.

00:17:37:09 – 00:17:37:21
Uns com os outros?

00:17:37:21 – 00:17:38:14
Não exactamente.

00:17:38:14 – 00:17:41:24
E, portanto, desde
há várias décadas que nós,

00:17:42:11 – 00:17:45:24
na gíria informática,
os anos em que o que se chama

00:17:45:24 – 00:17:49:20
processamento de linguagem natural,
que é uma técnica de texto,

00:17:50:05 – 00:17:54:14
esta estas ideias de olhar para frequência
relativas às palavras

00:17:55:02 – 00:17:58:18
é a seguir inferir

00:17:58:22 – 00:18:02:08
qual será o conceito
em que metade da palavra está a ser usada

00:18:03:20 – 00:18:04:10
num texto.

00:18:04:10 – 00:18:06:14
Portanto, não é adivinhação, é matemática.

00:18:06:14 – 00:18:11:04
E matemática pura é só e só
contabilidade básica de contar palavras.

00:18:11:16 – 00:18:15:15
E portanto, o que nós podemos fazer
é, portanto, caracterizar o significado

00:18:15:22 – 00:18:20:03
de uma palavra num texto com base
nas palavras que estão à volta dela.

00:18:20:13 – 00:18:24:02
Isto funciona,
não é aquilo que está neste momento

00:18:24:21 – 00:18:28:09
a citar toda a gente com os epítetos,

00:18:29:07 – 00:18:33:13
que é um que se chama
Lourdes, língua de uma modelo

00:18:35:05 – 00:18:36:24
de linguagem

00:18:36:24 – 00:18:40:08
grande,
grande, significa terabytes de texto.

00:18:40:08 – 00:18:43:20
Portanto, não estamos a treinar

00:18:43:20 – 00:18:46:11
um sistema que contabiliza

00:18:46:14 – 00:18:49:06
estas, estas frequências relativas.

00:18:49:16 – 00:18:54:12
Com base no texto Jesus
Luz Ideas ou da Literatura Portuguesa,

00:18:54:12 – 00:18:58:11
estamos a falar de toda a literatura,
toda a Wikipédia,

00:18:58:22 – 00:19:03:00
todos os chatos frases que para ela,
em termos desse texto, está.

00:19:03:00 – 00:19:03:21
Tudo lá, tem.

00:19:03:21 – 00:19:06:05
Tecnologia, utilizamos, contabilizamos,

00:19:07:05 – 00:19:10:00
contabilizamos numa,

00:19:10:00 – 00:19:12:09
num conjunto de informação

00:19:12:09 – 00:19:16:02
que era, digamos, impensável
há dez anos ou 20 anos atrás.

00:19:16:05 – 00:19:17:05
O que é que melhorou?

00:19:17:05 – 00:19:19:14
São as base de dados, são a rapidez
dos computadores, o que é que.

00:19:20:19 – 00:19:24:13
Eu acho que é que é que
é que a digitalização será?

00:19:24:24 – 00:19:27:11
Portanto, há 20 anos alguém que tivesse

00:19:28:14 – 00:19:31:14
tivesse esta ideia.

00:19:31:14 – 00:19:35:08
Portanto, como diz a ideia
de que as palavras se conhecem pelos que

00:19:35:08 – 00:19:36:21
estão próximos três décadas,

00:19:39:18 – 00:19:42:08
a barreira que encontraria é muito bonito.

00:19:42:10 – 00:19:44:13
Mas onde é que eu vou recolher esse texto
todo?

00:19:44:13 – 00:19:47:04
Onde é que eu vou encontrar máquinas
para fazer esse processamento?

00:19:47:07 – 00:19:51:12
No fundo, só funciona
se os Lusíadas saírem do papel e passarem

00:19:51:12 – 00:19:54:15
para dentro do computador e passar a estar
esse texto digitalizado lá dentro.

00:19:54:15 – 00:19:55:17
E nós agora fazemos.

00:19:55:17 – 00:19:59:06
Só dizemos tudo pelos pelos meios
digitais.

00:19:59:06 – 00:20:01:20
Portanto, a ar

00:20:01:20 – 00:20:05:05
as discussões em particular,
estamos a entrar no GPT,

00:20:05:16 – 00:20:09:24
portanto,
os créditos são fóruns de discussão,

00:20:09:24 – 00:20:13:07
fóruns de discussão
onde as pessoas falam e discutem.

00:20:13:13 – 00:20:15:02
E está tudo gravado.

00:20:15:09 – 00:20:17:01
Foi tudo gravado ao longo dos anos.

00:20:17:01 – 00:20:18:15
Não sei se não fico preocupado com essa
ideia.

00:20:18:15 – 00:20:20:10
Portanto,
quando nós vamos a um fórum de discussão

00:20:20:10 – 00:20:23:07
e dizemos Olha,
tenho aqui o meu problema, porque a minha

00:20:24:12 – 00:20:27:20
fechadura da minha porta range
não meio uma ajuda.

00:20:27:20 – 00:20:31:19
E eu e os meus amigos ou conhecidos,
ou quem for colocado

00:20:31:22 – 00:20:35:02
a dez ou 20 sugestões,
tudo isso ficou registado.

00:20:35:15 – 00:20:36:20
Obviamente.

00:20:37:18 – 00:20:39:09
Portanto, para. O bem ou mal.

00:20:39:09 – 00:20:40:13
Para o bem e para o mal, portanto.

00:20:40:13 – 00:20:42:12
Há uma memória da internet.

00:20:42:12 – 00:20:44:02
Absolutamente.

00:20:44:02 – 00:20:45:23
Portanto, hoje em dia

00:20:46:02 – 00:20:48:20
há. Não é uma memória.

00:20:48:23 – 00:20:51:17
E esse é outra das questões que nos deve

00:20:53:12 – 00:20:55:02
obrigar a reflectir.

00:20:55:02 – 00:21:00:04
Não é uma memória que é colectiva, no
sentido em que todos temos essa memória.

00:21:00:23 – 00:21:05:14
Há duas ou três
ou quatro chamadas gigantes tecnológicos.

00:21:05:15 – 00:21:07:20
Não é Google, a Microsoft, etc.

00:21:10:03 – 00:21:12:08
É uma zona que tem

00:21:14:10 – 00:21:15:10
essas.

00:21:15:10 – 00:21:16:24
A chave do castelo.

00:21:16:24 – 00:21:20:13
Tem a chave do castelo e já tem o castelo,
porque os Açores.

00:21:20:21 – 00:21:25:00
Portanto,
dominaram a infraestrutura, foram

00:21:26:18 – 00:21:29:15
alegremente beber em nós.

00:21:29:15 – 00:21:33:18
O nosso saber, a nossa poesia,
as nossas dúvidas

00:21:34:11 – 00:21:36:11
e guardaram tudo lá deles.

00:21:36:11 – 00:21:37:15
Absolutamente.

00:21:37:15 – 00:21:39:17
E agora, o que é que fazem com isto?

00:21:39:17 – 00:21:41:01
Agora fazem estas,

00:21:41:01 – 00:21:45:14
fazem muitas coisas como ajudar
lhes quando nós fazemos pesquisas, etc.

00:21:45:15 – 00:21:47:24
Essa base de informação

00:21:48:05 – 00:21:50:00
nos dava

00:21:50:00 – 00:21:53:03
para fazer coisas muito úteis como nós

00:21:54:07 – 00:21:56:06
podemos ir passar férias?

00:21:56:06 – 00:21:57:15
Nós temos muitas coisas

00:21:57:15 – 00:21:59:21
muito interessantes. Marca aqui
o seu hotel, é o mote.

00:22:00:03 – 00:22:02:06
Ajudamos a encontrar aquele sítio
certo, aquilo.

00:22:02:06 – 00:22:04:05
Se calhar não
o que pode pagar mais ou menos.

00:22:04:05 – 00:22:07:08
Mas, portanto, como há uma infraestrutura
que custa

00:22:08:08 – 00:22:10:23
dinheiro a construir e a manter.

00:22:11:02 – 00:22:13:11
Quem paga a conta,
alguém. Terá que pagar Inês.

00:22:13:16 – 00:22:16:05
Neste modelo atual, só os anunciantes.

00:22:16:11 – 00:22:18:18
Portanto, o facto de

00:22:20:04 – 00:22:22:16
os anunciantes terem

00:22:22:16 – 00:22:27:12
uma noção de que o que são os seus comportamentos, onde e onde é que passa o tempo

00:22:28:11 – 00:22:31:03
e as ideias que exprime.

00:22:31:03 – 00:22:33:19
Voltamos ao Jaguar
que quer este tipo comprar um carro novo,

00:22:33:19 – 00:22:37:04
um Jaguar ou quer ele ir ver
Jaguar algures no mundo.

00:22:37:13 – 00:22:39:18
Em função
disso, pode vender uma viagem e um carro.

00:22:40:01 – 00:22:42:08
Exatamente para ter um aspeto que

00:22:43:24 – 00:22:47:04
quer que que às vezes passa despercebido

00:22:47:22 – 00:22:48:16
e que

00:22:50:13 – 00:22:51:12
para estas empresas

00:22:51:12 – 00:22:53:13
eles é muito menos valioso

00:22:54:12 – 00:22:57:12
e muito menos valioso.

00:22:57:14 – 00:23:00:08
Aquilo que as pessoas dizem opinam

00:23:00:08 – 00:23:02:10
e muito face

00:23:03:03 – 00:23:06:03
àquilo que são os seus comportamentos.

00:23:06:15 – 00:23:08:04
O que é que eu faço com isso?
E aqueles não?

00:23:08:04 – 00:23:11:00
O que é que as próprias pessoas fazem
na internet?

00:23:11:00 – 00:23:14:21
As pessoas podem poder escrever
e dizer que adoram música clássica.

00:23:14:21 – 00:23:15:24
Que não têm interesse nenhum.

00:23:15:24 – 00:23:21:16
Mas nós podemos ter acesso à música que
ouve e percebemos que na verdade os ouve.

00:23:21:16 – 00:23:24:00
Música popular 80% do tempo.

00:23:24:00 – 00:23:26:22
Aliás,
as pessoas constroem as suas identidades,

00:23:26:22 – 00:23:31:17
como agora se diz, as suas imagens
e isso são construídas em função, digamos,

00:23:31:17 – 00:23:35:04
do ser ficcional
com que em certo idealismo.

00:23:35:13 – 00:23:37:10
Mas depois o seu dia a dia e o que fazem

00:23:39:02 – 00:23:41:18
não uma praia directamente descobrem.

00:23:42:02 – 00:23:44:07
A máquina descobre careca.

00:23:44:08 – 00:23:46:05
A máquina é a máquina

00:23:46:05 – 00:23:48:21
e portanto, no caso do automóvel,
pode efetivá.

00:23:48:21 – 00:23:53:16
Mente dizer que sabe tudo sobre Jaguar
e que vai comprar um Jaguar, etc.

00:23:54:03 – 00:23:56:04
Mas o sistema

00:23:56:07 – 00:23:59:01
dos seus comportamentos

00:23:59:01 – 00:24:03:21
não se deixará enganar
porque perceberá o que não tem

00:24:03:21 – 00:24:07:06
e não tem a capacidade económica
para adquirir um veículo daqueles

00:24:07:15 – 00:24:10:17
ou que não é,
digamos, do grupo de pessoas.

00:24:11:01 – 00:24:13:23
Basta, nós somos, somos,
somos seres sociais

00:24:13:23 – 00:24:18:04
e fazemos as coisas em face
daqueles que nos rodeia.

00:24:18:04 – 00:24:21:05
Se os seus seus amigos não têm jaguares
nem se interessam por jaguares,

00:24:21:06 – 00:24:25:03
é muito pouco provável que você,
quando diz que gosta de ser claro.

00:24:25:20 – 00:24:28:22
Que seja mentira ou melhor,
ele diz que gosta, mas não tem.

00:24:28:22 – 00:24:30:24
Mas não tem nenhuma razão
dizer não, não, não.

00:24:30:24 – 00:24:33:02
Não vou dizer mentir, mas digamos que

00:24:34:14 – 00:24:36:12
que que,

00:24:36:12 – 00:24:39:09
digamos, as pessoas falam sobre aquilo,
sobre a sua,

00:24:39:24 – 00:24:42:22
digamos, e a identidade da tal identidade
que constrói.

00:24:43:02 – 00:24:46:15
É uma persona que pode ser fictícia
ou que pode ser uma mistura

00:24:46:15 – 00:24:48:10
entre factos e desejos.

00:24:48:10 – 00:24:50:14
Exactamente, exatamente.

00:24:50:14 – 00:24:53:04
E a próprio
se pode nem sequer ter noção de que,

00:24:54:18 – 00:24:57:02
no mundo real é esse ser outra.

00:24:57:02 – 00:25:00:21
Outra questão
não é exatamente a mesma pessoa com que

00:25:01:14 – 00:25:04:01
com que se projeta
ou que é percebida pelos outros.

00:25:04:14 – 00:25:07:09
Pode não ser num dia, não é intencional
nem malicioso.

00:25:07:17 – 00:25:10:04
Nós todos que tivemos,
temos que ter um pouco disso.

00:25:10:09 – 00:25:12:01
Mas tenho que dizer que

00:25:12:01 – 00:25:14:22
eu, quando vim para aqui,
estacionei ali no parque de estacionamento

00:25:14:22 – 00:25:18:12
e antes fui ao restaurante
e obviamente paguei com o meu multibanco.

00:25:18:12 – 00:25:19:13
Agora, com o relógio é

00:25:21:04 – 00:25:22:05
no fundo.

00:25:22:05 – 00:25:24:18
Estou uma piada, sim.

00:25:24:18 – 00:25:25:11
Absolutamente.

00:25:25:11 – 00:25:27:05
Passaste nesta portagem

00:25:27:05 – 00:25:31:02
para que acho neste restaurante
tudo o que eu comi e como desisto.

00:25:31:03 – 00:25:32:15
Este automóvel não condiz.

00:25:32:15 – 00:25:34:17
Vieste no metro é e gasto do teu bilhete.

00:25:34:23 – 00:25:36:01
Tudo fica.

00:25:36:01 – 00:25:37:04
Ficou de alguma maneira registado?

00:25:37:04 – 00:25:39:11
Não sei de qualquer. Sim, é mais que isso.

00:25:40:04 – 00:25:42:18
E acho que o que é para mim
o que mais me assusta

00:25:43:18 – 00:25:47:00
nem é tanto isso como o facto de,
pelo facto de

00:25:47:00 – 00:25:53:05
eu estar conectado e relacionado,
continuar

00:25:54:18 – 00:25:58:09
a saber quem eu sou
ou o que eu sou, estar a condicionar

00:25:58:09 – 00:26:01:24
aquilo que os sistemas sabem
sobre aqueles que me são próximos.

00:26:03:04 – 00:26:04:18
Vou dar um exemplo que é o mais.

00:26:04:18 – 00:26:08:01
Ouvir todos não é para mim, é os emails.

00:26:08:02 – 00:26:11:11
Toda a gente envia emails no Gmail,

00:26:13:06 – 00:26:15:14
portanto, todos os dias

00:26:15:14 – 00:26:18:17
eu recebo dezenas,
centenas de mensagens de e-mail

00:26:19:12 – 00:26:22:23
e poderia ter que esta
ideia, digamos, naive.

00:26:23:05 – 00:26:28:04
Ok, não vou ter o meu email no Gmail
porque não quer que a Google saiba o que?

00:26:28:04 – 00:26:31:12
Aquilo que é que eu vou
no próprio servidor não é

00:26:32:04 – 00:26:35:06
o meu problema com os meus interlocutores.

00:26:35:06 – 00:26:38:02
Quase todos têm conta no Gmail
quando não têm contra o Gmail.

00:26:38:02 – 00:26:42:13
Tem um forma de reencaminhou a mensagem
automaticamente que, portanto, quer

00:26:42:13 – 00:26:43:14
eu queira, quer não queira.

00:26:43:14 – 00:26:47:11
Todas as minhas mensagens que entram
e saem estão guardadas no Gmail,

00:26:48:15 – 00:26:50:23
portanto, e pegando nisto,

00:26:51:15 – 00:26:55:01
temos também nos comportamentos que posso
decidir, por exemplo,

00:26:55:11 – 00:26:57:17
pagar sempre em dinheiro, mas

00:26:58:22 – 00:27:00:20
como no meu grupo social,

00:27:00:20 – 00:27:04:14
as pessoas todas costumam
ir frequentemente ao mesmo restaurante

00:27:05:10 – 00:27:09:05
e e portanto, e estamos ligados
à mesma rede wi fi no café.

00:27:10:04 – 00:27:10:13
Quando

00:27:10:16 – 00:27:13:03
quando fazemos o jantar de sexta feira,

00:27:13:16 – 00:27:18:11
eu posso não dar sinal de nenhum
de preferência pelo restaurante que for.

00:27:18:21 – 00:27:21:17
Mas o sistema

00:27:22:08 – 00:27:25:10
adquire a noção que há o grupo
três ou quatro,

00:27:25:11 – 00:27:28:18
cinco pessoas que regularmente
se encontram naquele sítio e.

00:27:28:21 – 00:27:32:16
Diz diz me, diz me com quem vens
e de ter quem tem doença completamente.

00:27:32:19 – 00:27:36:06
Voltemos ao site GTP e ferramentas conexas
a outras.

00:27:36:08 – 00:27:40:20
Com este sim, existem a uma a uma.

00:27:41:04 – 00:27:43:08
Há uma ênfase dos media

00:27:44:22 – 00:27:45:22
neste

00:27:46:16 – 00:27:48:10
neste nesta ferramenta.

00:27:48:10 – 00:27:53:12
Isto é, o Santo Graal ou é
ou é uma excelente manobra de marketing.

00:27:55:23 – 00:27:58:20
E uma excelente manobra de marketing
que claramente é.

00:27:59:03 – 00:28:01:05
Inquestionavelmente

00:28:01:09 – 00:28:03:21
não me parece que seja

00:28:03:21 – 00:28:07:02
sequer pelo conhecimento que eu
tenho do grupo.

00:28:07:02 – 00:28:10:13
Tenho acompanhado nos últimos dois,
três anos, que estas coisas

00:28:10:14 – 00:28:13:23
começaram a parecer
que este modelo seja o mais

00:28:15:00 – 00:28:17:19
sofisticado.

00:28:17:19 – 00:28:22:07
Nem parece que que a empresa
que criou o PN já seja mais avançado.

00:28:22:09 – 00:28:25:16
Não é tu, não era a Microsoft.

00:28:25:16 – 00:28:26:17
É a micro.

00:28:26:17 – 00:28:34:14
Se eu mesmo me lembro, digamos,
do percurso, a OPA foi criada, portanto.

00:28:34:15 – 00:28:36:18
Por isso a que se chamou no nome,

00:28:36:18 – 00:28:39:16
porque havia um grupo de pessoas
que estavam muito preocupados

00:28:39:16 – 00:28:43:00
com que estes grandes das tecnologias
estavam a fazer

00:28:44:04 – 00:28:47:04
nesta área de inteligência artificial
e que era importante

00:28:47:14 – 00:28:52:22
haver uma versão aberta, digamos, pública,
que pudesse ser usada por todos

00:28:52:22 – 00:28:55:21
e que permitisse que o público
saber o que se pode

00:28:55:21 – 00:28:57:05
e o que é que se está a fazer
com estas coisas.

00:28:57:05 – 00:28:58:04
E o que é que está a acontecer.

00:28:58:04 – 00:29:03:14
Na altura, a pessoa que era mais focal,
uma das mais quer dizer o que foi um chip.

00:29:03:14 – 00:29:05:02
Entretanto abandonou o projecto.

00:29:06:10 – 00:29:06:24
Mas havia.

00:29:06:24 – 00:29:11:00
Havia outras outras pessoas que víamos
com grande notoriedade

00:29:11:11 – 00:29:13:17
na área das tecnologias de informação.

00:29:14:24 – 00:29:18:14
Os milionários
que puseram dinheiro do seu bolso

00:29:18:14 – 00:29:23:13
para criar esta empresa
que iria ser um contrapeso

00:29:24:15 – 00:29:26:18
relativamente aos grandes da tecnologia.

00:29:26:18 – 00:29:28:02
Entretanto,

00:29:28:20 – 00:29:31:10
ela que abandonou o projecto,

00:29:31:10 – 00:29:33:17
aMicrosoft, que reforçou,

00:29:33:17 – 00:29:37:15
reforçou a posição e a Microsoft
nos últimos anos

00:29:38:19 – 00:29:42:24
deixou de ter o impacto
e agora voltou de alguma maneira.

00:29:43:11 – 00:29:46:04
Mas, digamos, a dez anos atrás,
a Microsoft

00:29:46:15 – 00:29:49:13
estava em queda de excelente.

00:29:49:13 – 00:29:50:03
E antes de

00:29:50:03 – 00:29:53:07
era que toda a gente tinha a Microsoft,
toda a gente tinha os Windows e eis.

00:29:53:12 – 00:29:57:10
O Facebook e a Amazon que apareceram
é que eram as já não era e que eram

00:29:57:10 – 00:30:01:04
as grandes, pois a Microsoft ainda hoje
nestes acrónimos das dos grandes

00:30:02:23 – 00:30:04:04
killers não encaixa que não.

00:30:04:04 – 00:30:05:09
Não se fala muito deles.

00:30:05:09 – 00:30:07:17
Mas voltando à questão aqui, então que

00:30:08:19 – 00:30:10:12
digamos este,

00:30:11:12 – 00:30:14:04
estes modelos de linguagem
estavam a ser trabalhados

00:30:14:04 – 00:30:16:22
pelo Facebook, pela Google, pelos chineses

00:30:18:02 – 00:30:20:12
e portanto, nem parece que o.

00:30:21:01 – 00:30:21:15
Que é que aconteceu?

00:30:21:15 – 00:30:23:07
Os chineses desistiram?

00:30:23:07 – 00:30:26:01
Não, não o contrario

00:30:26:01 – 00:30:28:20
ele provavelmente terá um,

00:30:28:20 – 00:30:31:08
três, um, três modelos de linguagem.

00:30:33:09 – 00:30:36:07
Não estou a lembrar do nome,
mas lembro de ter lido um artigo em que

00:30:36:21 – 00:30:40:15
o ou é comparável ao Lambda da Google,
que é o último do Google,

00:30:40:19 – 00:30:44:00
ou até se calhar já era superior

00:30:44:06 – 00:30:47:09
em inúmeros interpretes que tentam

00:30:47:17 – 00:30:50:00
medir, digamos, a complexidade do modelo.

00:30:50:14 – 00:30:53:12
Portanto, mas voltando a
estes modelos de linguagem, no fundo

00:30:53:24 – 00:30:56:18
permitem prever expressões
que agora chegamos ao chato.

00:30:56:19 – 00:31:00:07
GPT são os que fazem parte de um grupo
que se chama

00:31:00:07 – 00:31:02:17
os modelos fundacionais,

00:31:03:08 – 00:31:06:24
que que são modelos que não são treinados
para nenhuma aplicação

00:31:06:24 – 00:31:10:01
específica, são, são, são

00:31:10:16 – 00:31:13:23
e são treinados ou são,

00:31:14:16 – 00:31:17:10
portanto são criados
com estas frequências, etc.

00:31:17:10 – 00:31:19:24
Pois poder se ão fazer certas aplicações.

00:31:20:09 – 00:31:21:20
Há modelos fundacionais

00:31:23:04 – 00:31:23:23
que são

00:31:23:23 – 00:31:27:01
criados com grandes quantidades de dados

00:31:28:07 – 00:31:31:02
para, a partir de

00:31:33:00 – 00:31:34:08
sequências de texto,

00:31:34:08 – 00:31:40:12
criar imagens, cromos, análise atual
e sei o que hoje e depois e outros

00:31:40:12 – 00:31:45:09
que a partir de sequências de palavras
criam outras sequências top.

00:31:45:19 – 00:31:49:20
E algum que possa mimetizar a nossa voz.

00:31:49:20 – 00:31:52:18
O que aqui está
é para amanhã fazer este podcasts sozinho

00:31:53:17 – 00:31:55:22
com a nossa imagem, com também.

00:31:56:08 – 00:31:57:21
Portanto, também.

00:31:57:21 – 00:32:03:03
Já a Google, interessante, anunciou
há pouco tempo e pode e pode esperar.

00:32:03:04 – 00:32:05:01
Experimentei, mas vi que não, não pode.

00:32:05:01 – 00:32:07:06
Ainda não pode experimentar. Mas anunciou.

00:32:07:06 – 00:32:09:21
Já vi outras versões aqui do Google

00:32:09:24 – 00:32:11:24
em que pode, por exemplo, gerar música,

00:32:13:12 – 00:32:15:20
já que é uma sequência de sons.

00:32:15:20 – 00:32:18:11
Então a criatividade,
a criatividade humana vai morrer?

00:32:19:11 – 00:32:21:17
Não todo de todos.

00:32:21:17 – 00:32:22:19
Não, não me parece essa.

00:32:22:19 – 00:32:24:01
Máquina já pintada ali.

00:32:24:01 – 00:32:26:19
Essa máquina faz, me faz me rir. Um botão.

00:32:28:19 – 00:32:30:21
Só. Quem não vai transforma essas coisas
ao mesmo tempo.

00:32:31:06 – 00:32:31:23
Mas acho que não.

00:32:31:23 – 00:32:35:05
Acho que na minha perspetiva é uma.

00:32:35:22 – 00:32:37:03
É uma ferramenta.

00:32:37:03 – 00:32:40:22
De cada vez que nós
inventamos uma ferramenta nova,

00:32:41:06 – 00:32:44:11
ela vai lá, vai ali.

00:32:44:11 – 00:32:48:00
O mundo inteiro disse que os artistas,

00:32:48:00 – 00:32:51:21
ou que uma certa profissão vai
que nos aconteceu com a máquina,

00:32:51:21 – 00:32:55:03
foi por o caminho de ferro,
com o automóvel.

00:32:55:03 – 00:32:57:18
Eu diria que nos no caso dos bancários,
isso até foi verdadeiro

00:32:57:24 – 00:33:01:04
quando apareceram os
os multibancos e os homebanking.

00:33:01:05 – 00:33:04:09
E não sei que foi uma profissão
que cresceu muito e sem se.

00:33:04:21 – 00:33:07:04
Claro. Mas eu estou me a lembrar.

00:33:07:21 – 00:33:09:08
A agricultura

00:33:09:15 – 00:33:12:03
no início do século XXI,
no final do século XIX,

00:33:12:09 – 00:33:14:19
representava 90% dos empregos.

00:33:14:19 – 00:33:17:02
Hoje em dia representa dez.

00:33:17:02 – 00:33:18:22
O que acontece?

00:33:18:22 – 00:33:21:06
O que acontece
é que há uma redistribuição,

00:33:21:12 – 00:33:25:14
porque nós somos humanos
e enquanto humanos, nós, no fundo,

00:33:25:14 – 00:33:27:02
aquilo que estamos a fazer é

00:33:29:17 – 00:33:31:15
remunerar cada um

00:33:31:15 – 00:33:34:03
em sociedade pela sua contribuição.

00:33:34:10 – 00:33:38:15
Por exemplo,
nós valorizamos imensamente o que

00:33:39:09 – 00:33:43:11
jogadores de futebol
como Cristiano Ronaldo fazem e, portanto,

00:33:44:00 – 00:33:47:00
digamos,
a nossa riqueza colectiva é redistribuída

00:33:47:00 – 00:33:50:22
de forma que ele seja compensado
muito mais generosamente do que

00:33:52:01 – 00:33:55:00
do que as pessoas que, por exemplo,
trabalham no ensino, como eu.

00:33:55:02 – 00:33:57:05
E no fundo, no fundo,
nós podemos pensar que isso

00:33:57:08 – 00:34:00:20
é demasiado binário
e que é porque é que eu pago alguém e

00:34:01:21 – 00:34:05:17
milhares de euros
por ele chutar uma bola de couro? Sim,

00:34:05:19 – 00:34:06:07
mas na realidade

00:34:06:07 – 00:34:10:22
nós estamos a remunerar também
outra coisa que é a emoção que está, a que

00:34:11:14 – 00:34:17:04
os valores implícitos e fatos que não são
e que é diferente do agricultor.

00:34:17:04 – 00:34:18:17
Um quilo de batatas e um quilo de batatas.

00:34:19:24 – 00:34:20:20
Exactamente.

00:34:20:20 – 00:34:23:13
Mas a questão aqui é que nós, socialmente,

00:34:24:19 – 00:34:29:06
conjuntamente, produzimos riqueza
e depois distribuímos essa riqueza

00:34:29:07 – 00:34:33:05
de uma forma em que a repartição é feita

00:34:33:12 – 00:34:36:04
de acordo com o que valorizamos
e pode ser injusto ou não.

00:34:36:04 – 00:34:41:18
Não vou falar por aí, mas mas tenderá,
digamos, a representar essa valorização

00:34:41:18 – 00:34:44:12
e, portanto, é o que está a acontecer
com com estas ferramentas todas.

00:34:45:07 – 00:34:48:24
É o tipiti em particular que

00:34:51:15 – 00:34:55:01
os artistas, os criadores têm agora

00:34:55:02 – 00:34:58:04
uma nova ferramenta tomar, lembrar,
apresentar nos, falar das imagens.

00:34:58:04 – 00:35:00:03
Quando, quando há uns anos apareceu

00:35:00:03 – 00:35:03:21
as ferramentas digitais de tratamento
de imagem, surgiu hoje o Adobe Photoshop.

00:35:04:04 – 00:35:08:08
Também se falava
que era o fim da fotografia, pois cada um

00:35:08:08 – 00:35:12:06
agora pedir por si,
processar as suas fotografias, etc, etc.

00:35:13:01 – 00:35:17:15
O que aconteceu na prática
foi que a Kodak faliu porque não

00:35:17:19 – 00:35:22:04
acompanhou, mas muitas das empresas
transformaram se e adaptaram se

00:35:22:17 – 00:35:26:04
e socialmente houve um tumulto claramente.

00:35:26:12 – 00:35:29:13
Havia muita gente
nos laboratórios de fotografia e etc.

00:35:29:13 – 00:35:34:15
Que teve que encontrar outras outras
atividades, mas ao fim de algum tempo

00:35:35:21 – 00:35:37:23
já não é, digamos, não é drama nenhum.

00:35:37:23 – 00:35:41:09
As pessoas a arranjar outra forma
de contribuir socialmente

00:35:41:09 – 00:35:42:10
e de serem remuneradas.

00:35:42:10 – 00:35:45:24
Portanto,
o que nós vamos ter aqui com este,

00:35:46:00 – 00:35:51:03
com estas novas ferramentas
é um período de instabilidade,

00:35:51:03 – 00:35:54:19
em que haverá os que aprenderam
mais depressa a tirar partido

00:35:55:24 – 00:35:59:10
destas ferramentas e destes meios

00:35:59:10 – 00:36:01:13
e e outros que

00:36:02:03 – 00:36:05:00
que faziam trabalhos que agora

00:36:06:13 – 00:36:09:21
passaram a ser feitos mais facilmente
com este tipo de ferramentas.

00:36:09:21 – 00:36:11:10
Que tornam se obsoletos.

00:36:11:10 – 00:36:12:24
Que se tornam obsoletos, portanto.

00:36:12:24 – 00:36:15:19
Mas mas a sociedade, enquanto eu acho eu,

00:36:16:04 – 00:36:20:08
eu tenho essa ideia que ainda não vi
ainda não vi.

00:36:21:03 – 00:36:24:04
Ainda não vi acontecer

00:36:24:07 – 00:36:27:16
que o que quer que seja,
que a nossa sociedade

00:36:27:16 – 00:36:31:22
tenha deixado pessoas para trás com estas,
com estas alterações,

00:36:33:03 – 00:36:35:03
há grandes preocupações.

00:36:35:03 – 00:36:38:09
A questão do fosso digital
tem que ser, tem que ser gerida

00:36:40:00 – 00:36:41:15
coletivamente para não

00:36:41:15 – 00:36:45:03
deixarmos que os efeitos sejam demasiado
devastadores.

00:36:45:03 – 00:36:47:13
E assim pessoas
temos que gerir a transição.

00:36:47:22 – 00:36:49:19
Mas as transições

00:36:50:02 – 00:36:52:11
só são positivas.

00:36:52:12 – 00:36:56:23
Nós acabamos sempre por encontrar um meio
de acomodar as tecnologias,

00:36:57:03 – 00:36:58:23
porque eu acho que ninguém também
quer voltar para trás.

00:36:58:23 – 00:36:59:20
O tempo em que não tínhamos

00:36:59:20 – 00:37:01:22
estas tecnologias
não é o tempo em que não havia

00:37:02:23 – 00:37:05:08
eletricidade nem computadores na internet.

00:37:05:18 – 00:37:08:03
Acho que isso acho que era impensável
nos dias de hoje toda.

00:37:08:04 – 00:37:08:20
Todavia.

00:37:09:13 – 00:37:11:20
O Alto Comissário das Nações Unidas,
há um par de dias,

00:37:12:12 – 00:37:14:22
o Alto Comissário para a Paz
para os Direitos Humanos

00:37:15:09 – 00:37:18:24
avisou que esta coisa
da inteligência artificial latu sensu

00:37:19:11 – 00:37:22:03
pode ser uma séria
ameaça aos direitos humanos

00:37:22:09 – 00:37:25:17
e pediu expressamente que se criem
salvaguardas.

00:37:25:20 – 00:37:29:19
No fundo, a linha guia que uns tribos

00:37:30:01 – 00:37:33:18
acham que a palavra é essa mesmo uns tribo
para tentar controlar isto.

00:37:33:21 – 00:37:34:05
Certo

00:37:35:18 – 00:37:38:09
partilha
desta preocupação totalmente totalmente.

00:37:38:15 – 00:37:39:12
Portanto,

00:37:40:10 – 00:37:42:08
era, digamos nesse sentido
que eu estava a ir.

00:37:42:08 – 00:37:45:22
Portanto, nós temos que estar cientes

00:37:46:04 – 00:37:52:00
dos riscos e riscos de vária natureza

00:37:53:20 – 00:37:56:22
e pessoalmente, como eles estão a dizer.

00:37:56:22 – 00:38:00:10
E o risco da automação

00:38:00:10 – 00:38:03:02
é provavelmente o que menos me preocupa

00:38:03:15 – 00:38:07:01
a tese de que haverá pessoas que ficam
sem emprego.

00:38:07:05 – 00:38:08:07
Então, o que é que preocupa?

00:38:08:07 – 00:38:11:11
Preocupam me. Preocupa me

00:38:11:17 – 00:38:15:00
a parte da discriminação,

00:38:15:15 – 00:38:20:17
da exclusão das minorias.

00:38:22:08 – 00:38:27:03
Preocupo me com estes modelos.

00:38:27:08 – 00:38:30:24
As fugas de informação
é um aspeto que ninguém está a falar.

00:38:31:00 – 00:38:33:05
Estes modelos demorou algum tempo
a construir.

00:38:33:06 – 00:38:36:03
São muito caros por ser um impulso.

00:38:36:03 – 00:38:38:16
Mas imagino que destes modelos,

00:38:39:18 – 00:38:45:01
por acidente, capturava uma base de dados
com informação sensível.

00:38:45:14 – 00:38:48:09
Informação de saúde
por que é uma coisa que me preocupa muito.

00:38:48:21 – 00:38:49:09
Um número

00:38:50:19 – 00:38:52:03
elevado de pessoas.

00:38:52:18 – 00:38:55:08
Como é que faria

00:38:55:08 – 00:39:00:09
para repor a verdade ou para para que
o modelo se esquecesse deste caso?

00:39:00:10 – 00:39:02:19
Portanto,
também pode haver a situação de um museu

00:39:04:23 – 00:39:07:24
ser ser induzido

00:39:09:12 – 00:39:11:21
a capturar estatisticamente falsidades

00:39:13:03 – 00:39:15:18
e depois nós, da nossa conversa

00:39:15:18 – 00:39:19:08
com o chato CPT,
começas a perpetuar esses falsidades.

00:39:19:08 – 00:39:24:06
Por exemplo, possa repetir 1000 vezes
que Jorge é uma pessoa x y, z.

00:39:24:12 – 00:39:27:11
Propaganda propaganda é dito

00:39:27:20 – 00:39:30:19
não é uma mentira,
uma verdade e uma mentira ditas.

00:39:30:19 – 00:39:31:07
Muitas vezes.

00:39:31:07 – 00:39:33:05
Eu encontrei
não sei quantas referências a dizer,

00:39:33:05 – 00:39:35:01
portanto, obviamente, havia menos.

00:39:35:01 – 00:39:39:16
X um mês mais tarde
foram os chatos precipitei.

00:39:40:17 – 00:39:42:20
Mas o que é o Jorge Correia?

00:39:42:20 – 00:39:45:21
É ele vai me dizer o que tem

00:39:45:21 – 00:39:46:14
e, portanto,

00:39:47:16 – 00:39:50:12
há riscos de manipulação

00:39:52:02 – 00:39:55:23
destas bases de informação estatística.

00:39:57:08 – 00:39:58:05
Além de que obviamente

00:39:58:05 – 00:40:00:21
que a base de informação seria construída

00:40:01:24 – 00:40:04:14
por pessoas e, portanto,
o que lá é o que as pessoas lá quiserem

00:40:04:14 – 00:40:09:11
por os estiver do salário
e se quiseres, lá por nós, digamos,

00:40:09:18 – 00:40:13:11
podemos omitir ou podemos pôr mentiras

00:40:13:13 – 00:40:16:04
e o modelo vai responder por essas.

00:40:17:01 – 00:40:20:15
Por essas e por essas
e por essa informação.

00:40:20:15 – 00:40:22:10
Como é que se controla isso.

00:40:22:10 – 00:40:24:14
Ou está?

00:40:24:14 – 00:40:25:21
E esse é que eu acho que.

00:40:25:21 – 00:40:28:23
Porque se estou a pensar, por exemplo,

00:40:28:23 – 00:40:30:19
as nossas finanças, por exemplo,
nós estamos lá.

00:40:30:19 – 00:40:34:16
O número de contribuinte
é provavelmente o fenómeno mais universal?

00:40:34:19 – 00:40:37:06
Sim, para mim também
preocupa de alguma maneira, porque aquilo,

00:40:37:06 – 00:40:40:02
se calhar aquela base vai muito
para além daquilo que foi criada,

00:40:40:02 – 00:40:42:24
que foi paga aos seus impostos
e serve essa parte?

00:40:43:09 – 00:40:44:24
Todos compreendemos.

00:40:44:24 – 00:40:47:14
Mas às tantas aquilo já vem bocadinho
mais longe do que isso,

00:40:47:14 – 00:40:50:16
mas de qualquer forma
está a passar nas mãos do Estado e,

00:40:50:16 – 00:40:53:09
portanto, eu, como cidadão,
também posso ser um tribunal.

00:40:53:09 – 00:40:54:14
Foi uma estação?

00:40:54:14 – 00:40:57:14
Em princípio, sim. Mas mesmo nos sistemas

00:40:58:18 – 00:41:01:09
de geração imediatamente anterior

00:41:01:15 – 00:41:05:09
a este, esta nova vaga, por exemplo,
nós temos

00:41:07:05 – 00:41:08:23
no espaço europeu

00:41:08:23 – 00:41:11:01
a diretiva do Direito ao esquecimento.

00:41:11:19 – 00:41:13:07
Alguém já conseguiu exercer isso?

00:41:13:07 – 00:41:15:00
Sim, sim, sim. Sim, sim.

00:41:15:00 – 00:41:18:06
Quem o escrever a uma determinada entidade
e dizer escreve para finanças

00:41:18:06 – 00:41:20:07
não funciona. É melhor avisar as pessoas.

00:41:20:07 – 00:41:24:04
Mas eu tenho visto
estatísticas sobre o número de pedidos

00:41:24:22 – 00:41:28:04
que são feitos por cada país.

00:41:28:04 – 00:41:31:04
E, no caso português,
há muitos portugueses que já pediram

00:41:31:23 – 00:41:34:01
já exercer o seu direito ao esquecimento.

00:41:34:01 – 00:41:36:13
Dirigem se aos motores de busca.

00:41:36:13 – 00:41:38:00
Aos poucos, os desta vida a dizer ok,

00:41:38:00 – 00:41:41:19
toda a informação que vocês têm aqui
sobre mim é que façam favor de apagar.

00:41:42:01 – 00:41:44:07
Não apaga, deixam de indexar.

00:41:44:20 – 00:41:47:05
Ok? Tanto quanto é que eles não podem.

00:41:47:13 – 00:41:49:14
Portanto, o que está publicado no site
que eles não dominam,

00:41:49:14 – 00:41:53:16
não conseguem parar o site,
mas sem referências a informação de site

00:41:53:16 – 00:41:56:16
e podem pedir que essas referências
sejam eliminadas.

00:41:57:03 – 00:41:58:17
O que eu estava a referir é que ok,

00:41:59:19 – 00:42:01:02
mas estes modelos de

00:42:01:02 – 00:42:03:14
linguagem não têm estas referências todas

00:42:04:05 – 00:42:06:06
e portanto, em algum momento
eles vão apagar.

00:42:06:06 – 00:42:08:07
Como é que eu vou atualizar estes modelos?

00:42:08:07 – 00:42:09:12
Se eu sou, sou, portanto.

00:42:09:12 – 00:42:12:14
Obviamente que estamos à espera.

00:42:12:14 – 00:42:14:20
E para dizer vamos falar que sim.

00:42:14:20 – 00:42:17:16
Mas eu estou com o chip. Sim, porque?

00:42:18:08 – 00:42:19:13
Porque é que?

00:42:19:13 – 00:42:20:12
Porque é que quer?

00:42:20:12 – 00:42:23:16
Agora, de repente, que se está a falar
tantos que a questão segue?

00:42:23:23 – 00:42:26:19
Uma das razões que eu tenho ouvido
para o facto

00:42:26:19 – 00:42:29:19
de outras empresas que já trabalham nisto

00:42:30:03 – 00:42:34:14
com mais esforço não terem feito
é porque estavam com medo do risco.

00:42:34:14 – 00:42:37:23
Se agora, de repente se é ou planeia
e decidiu

00:42:39:17 – 00:42:42:08
tornar este modelo
público para as pessoas,

00:42:42:15 – 00:42:44:23
porque experimental é só brincar, etc.

00:42:45:04 – 00:42:47:04
Não há nenhum produto comercial.

00:42:47:04 – 00:42:49:08
Vamos poder começar a fazer perguntas
sobre isso também.

00:42:49:11 – 00:42:52:10
Dizer quem é que está a fazer
estas coisas é mais avançada

00:42:53:23 – 00:42:54:03
porque?

00:42:54:03 – 00:42:56:04
Porque eu dos mais avançados.

00:42:56:22 – 00:43:00:13
Será claramente a Google,
claramente Facebook,

00:43:00:17 – 00:43:03:01
embora se diga que está a ficar um pouco
para trás

00:43:04:02 – 00:43:07:23
e do lado chinês
os os os grandes tecnológicos chineses.

00:43:08:18 – 00:43:14:02
Nós no mundo ocidental não falamos dele,
não conhecemos não, não conhecemos.

00:43:14:02 – 00:43:17:15
Mas há ferramentas como é chato, etc.

00:43:17:24 – 00:43:21:15
Que têm mais utilizadores que nós

00:43:22:06 – 00:43:26:06
no Oriente, que nós todos no mundo
ocidental, conjuntamente.

00:43:26:06 – 00:43:30:22
Temos, portanto, as gigantes tecnológicas
também no mundo oriental.

00:43:31:07 – 00:43:34:20
E é porque eles estão a fazer o mesmo
tipo de investimentos de desenvolvimento.

00:43:34:21 – 00:43:36:01
E não chegamos lá porque?

00:43:36:01 – 00:43:39:21
Porque não conseguimos compreendê los,
porque essa informação

00:43:39:21 – 00:43:41:22
está mais escondida.

00:43:42:00 – 00:43:44:03
Eu gostava de saber o que é que quer, que

00:43:44:03 – 00:43:45:22
que é que de interessante
os chineses estão a fazer, não é?

00:43:47:18 – 00:43:49:05
Sim, agora

00:43:51:18 – 00:43:52:11
a nossa cidade é

00:43:52:11 – 00:43:55:04
uma cidade muito mais aberta,
incomparavelmente mais aberta.

00:43:55:18 – 00:44:00:24
E é no mundo ocidental
temos uma língua franca,

00:44:01:06 – 00:44:05:07
o latim moderno, que se chama o inglês
e que que é a linguagem

00:44:05:07 – 00:44:06:21
quase universal de comunicação.

00:44:06:21 – 00:44:11:10
Portanto, é muito mais fácil
a informação e o conhecimento

00:44:11:20 – 00:44:15:00
fluir dentro do nosso mundo
do que no mundo.

00:44:15:18 – 00:44:18:06
Onde a língua é diferente e a cultura.

00:44:18:06 – 00:44:19:08
É completamente diferente.

00:44:19:08 – 00:44:21:12
E, portanto, isso faz com que haja

00:44:22:14 – 00:44:24:23
muito mais dificuldade do nosso lado,

00:44:25:08 – 00:44:27:21
além de que o regime

00:44:29:01 – 00:44:30:24
político em vigor nessas.

00:44:30:24 – 00:44:33:07
Cidades é mais fechado
e, portanto, não permite isso.

00:44:33:16 – 00:44:37:21
Então, quando é que a máquina inventa
um raio de uma tradução simultânea decente

00:44:38:08 – 00:44:40:21
para eu poder acessar a guia
e gravar um podcasts?

00:44:40:23 – 00:44:41:23
Com quem?

00:44:41:23 – 00:44:45:01
Com o chinês lá
está em que eu falo português e ele fala

00:44:46:02 – 00:44:47:12
fala chinês, me fala mandarim

00:44:47:12 – 00:44:51:10
é que tudo isto faça sentido.

00:44:51:19 – 00:44:54:05
Eu não sou especialista em tradução.

00:44:54:10 – 00:44:56:08
Mas nós experimentamos as traduções.

00:44:56:08 – 00:45:00:08
Já existe, está muito porque senão se não
existe, está muito perto de acontecer.

00:45:02:01 – 00:45:05:22
Eu lembro de ter estado na China
há uns anos,

00:45:06:12 – 00:45:08:13
há menos de dez anos, mas há mais de cinco

00:45:09:04 – 00:45:11:15
e entrava no táxi

00:45:12:17 – 00:45:17:03
e e. Portanto,
não havia qualquer dificuldade porque

00:45:18:06 – 00:45:22:07
ou falava ou ou eles pediam para digitar

00:45:22:21 – 00:45:26:18
o que queria da cria
e imediatamente eles respondiam Portanto,

00:45:27:12 – 00:45:31:08
nós aqui que não nos socorremos antes
essas ferramentas, por exemplo, lá.

00:45:31:08 – 00:45:32:18
Está temos o latim, inglês.

00:45:32:18 – 00:45:39:05
Temos exactamente, mas para hoje
para os chineses, esse tipo de ferramentas

00:45:39:05 – 00:45:42:00
usamos com muito mais regularidade no dia
a dia.

00:45:42:00 – 00:45:45:12
Não para de
não para traduzir obras literárias, etc.

00:45:46:01 – 00:45:48:07
Mas para para as conversas do dia a dia.

00:45:48:11 – 00:45:51:20
Eu tenho ideia que essas ferramentas
são usadas por muita gente

00:45:51:23 – 00:45:52:22
para comunicação franca.

00:45:52:22 – 00:45:58:20
Nós já falamos aqui em passagem na questão
dos dados, no campo da saúde interessa.

00:45:59:06 – 00:46:04:14
Em particular, estamos sentados
numa pilha gigantesca e valiosa de dados.

00:46:05:00 – 00:46:09:21
Ou estamos sentados numa completa
anarquia de dados que estão lá,

00:46:10:07 – 00:46:13:20
mas que ainda não nos estão a servir
para grande coisa.

00:46:13:20 – 00:46:14:10
Neste altura

00:46:15:12 – 00:46:18:03
estamos a falar da informação de saúde,
enquanto em concreto.

00:46:18:11 – 00:46:21:06
Desde desde aquilo que está

00:46:21:06 – 00:46:26:03
desde os nossos registro,
o nosso boletim de vacinas, por exemplo,

00:46:26:10 – 00:46:30:12
até aos nossos exames,
todos os sítios onde vamos? Sim,

00:46:31:21 – 00:46:32:17
portanto,

00:46:33:11 – 00:46:35:04
neste domínio

00:46:36:23 – 00:46:39:14
nós temos feito uma evolução

00:46:41:16 – 00:46:46:10
muito, muito rápida e passámos a.

00:46:46:15 – 00:46:49:17
Tivemos tempo em que as notas dos médicos

00:46:50:00 – 00:46:53:00
eram escritas em papel
e por último, vacinas.

00:46:53:00 – 00:46:55:17
Também era papel e hoje é tudo digital.

00:46:55:17 – 00:46:57:24
Está tudo na forma digital

00:46:57:24 – 00:47:02:07
e temos que
os clínicos estão incrivelmente

00:47:02:16 – 00:47:07:00
mais sensibilizados
para registar a informação.

00:47:07:11 – 00:47:10:20
Porque têm, têm uma noção do enorme valor

00:47:11:09 – 00:47:15:19
que pode ter no futuro
registar essa informação.

00:47:15:19 – 00:47:19:17
Mas isso implica escrever à mão, além de
depois ir conseguir beber as várias

00:47:19:17 – 00:47:24:05
fontes, sei lá as análises
que eu acabei de fazer, de juntar tudo.

00:47:24:13 – 00:47:25:24
Esse é um dos grandes dilemas,

00:47:25:24 – 00:47:32:00
portanto, obviamente que hoje em dia
já se usa a tecnologia para

00:47:33:13 – 00:47:35:22
para capturar muitas informação.

00:47:35:22 – 00:47:39:17
Por exemplo, se for fazer uma ecografia
e muito provavelmente o médico

00:47:40:02 – 00:47:42:23
falará para um aparelho que faz

00:47:44:08 – 00:47:47:07
a gravação do áudio
e depois faz a transcrição para o texto

00:47:47:19 – 00:47:51:02
e a seguir temos um assistente

00:47:52:04 – 00:47:57:16
pega nesse texto e produz, digamos,
uma versão preliminar do relatório.

00:47:57:16 – 00:47:59:21
E vai fazer de vírgulas
que não vai estar no Citius.

00:47:59:22 – 00:48:01:06
Faz uma validação final.

00:48:01:06 – 00:48:04:20
Está a permanentes muitos processos

00:48:05:07 – 00:48:07:11
em que a tecnologia digital

00:48:08:13 – 00:48:10:18
já é usada no dia a dia.

00:48:10:20 – 00:48:12:23
Mas eu estava a falar
dando um passo à frente, que é

00:48:13:11 – 00:48:17:03
não só de que essa minha ecografia
possa estar disponível nos vários sítios

00:48:17:03 – 00:48:19:24
ou vários médicos
onde eu possa ir, como cruzada

00:48:19:24 – 00:48:22:08
com as minhas análises de sangue,
como cruzada

00:48:22:08 – 00:48:25:17
com aquilo que o médico apontou
sobre aquilo que pensamos exactamente.

00:48:26:07 – 00:48:30:20
Nós temos um projeto em curso no âmbito
do Programa Carnegie Mellon Portugal,

00:48:31:21 – 00:48:33:23
com o Hospital da Luz,

00:48:33:23 – 00:48:36:05
em que olhamos precisamente para esse tipo

00:48:37:14 – 00:48:39:24
de tratamentos e, portanto,

00:48:39:24 – 00:48:42:21
realmente a informação laboratorial,

00:48:44:16 – 00:48:46:12
a informação

00:48:46:19 – 00:48:51:17
do registo clínico
e a informação estruturada no sentido em

00:48:51:17 – 00:48:54:24
que o médico, quando testar uma consulta,
escreve a marca

00:48:56:00 – 00:48:58:19
diabético, hipertenso

00:48:58:19 – 00:48:59:10
e marca.

00:48:59:10 – 00:49:02:22
Mas isso não vai aumentar muito
a carga de trabalho do pessoal de saúde.

00:49:02:22 – 00:49:05:12
Estou a pensar uma coisa
é aquilo que é o normal

00:49:05:12 – 00:49:08:10
que o médico já faz, ao que o enfermeiro
faz outra coisa a dizer.

00:49:08:10 – 00:49:13:03
Bom, mas para isso ser mesmo perfeito,
o médico pessoal tem que passar aqui

00:49:13:03 – 00:49:17:03
mais meia hora neste sistema
que nós inventamos e escrever tudo

00:49:17:14 – 00:49:21:05
exatamente em caixinhas, em padrões,
para que a informação já está recolhida.

00:49:21:14 – 00:49:23:03
Ou, pelo contrário,

00:49:23:03 – 00:49:25:12
vamos deixar que, naturalmente,
cada profissional

00:49:25:12 – 00:49:29:08
faça o que tem para fazer e depois
inventamos um bom sistema para beber.

00:49:29:22 – 00:49:34:02
Entre as coisas boas e as incongruências
que possa haver nessa nesse descritivo.

00:49:34:18 – 00:49:37:12
O processo é um processo longo,

00:49:37:24 – 00:49:40:24
geracional e tem os seus dois lados.

00:49:41:09 – 00:49:44:00
Portanto, por um lado,

00:49:44:00 – 00:49:46:07
há um incentivo

00:49:46:07 – 00:49:49:05
para que a informação
seja cada vez mais codificada,

00:49:50:03 – 00:49:53:09
com códigos de terminologias
clínicas x centro

00:49:54:10 – 00:49:55:00
e, por outro.

00:49:55:00 – 00:49:58:10
Lado, é diabético, não é diabético,
tem hipertensão, não tem hipertensão.

00:49:58:10 – 00:49:59:20
Porifera Exatamente.

00:49:59:20 – 00:50:01:01
Mas depois vem a outra parte.

00:50:01:01 – 00:50:03:03
Quer dizer que é parte humana em excesso?

00:50:03:10 – 00:50:05:13
O que é que eu acho o prognóstico.

00:50:05:13 – 00:50:07:12
É exactamente aí.

00:50:07:12 – 00:50:09:21
Hoje em dia, em particular

00:50:10:09 – 00:50:16:08
nos processos clínicos de alto nível,
recorremos a linguagem e o texto.

00:50:16:09 – 00:50:19:18
Tantas notas clínicas escritas

00:50:20:13 – 00:50:22:12
pelos médicos continua a ser a norma.

00:50:22:12 – 00:50:24:20
E, portanto, subjectivas também
nalguma parte do. Sujeito.

00:50:24:20 – 00:50:26:22
Mas a informação é

00:50:27:11 – 00:50:28:17
e é subjetiva.

00:50:28:17 – 00:50:34:01
Quer dizer que eu estava aqui
a distinguir, dentro do processo clínico,

00:50:34:05 – 00:50:35:03
entre

00:50:35:19 – 00:50:40:24
a informação objectiva e factível
que é igual à dos físicos e dos químicos,

00:50:40:24 – 00:50:45:20
que é dizer se é miligramas
por decilitro, glucose e são decisões,

00:50:46:06 – 00:50:48:14
mas depois diremos quando,

00:50:48:22 – 00:50:52:07
quando
e quando vai para os níveis mais altos.

00:50:52:07 – 00:50:55:24
Por exemplo,
se está numa consulta de psiquiatria,

00:50:56:11 – 00:50:59:12
exceto,
portanto, o que o médico está a registar.

00:51:00:07 – 00:51:03:05
A expressão ausente é só um

00:51:04:08 – 00:51:07:04
olhar distraído, qualquer coisa.

00:51:07:15 – 00:51:08:11
E isso é mais difícil.

00:51:08:11 – 00:51:11:24
São sinais e informação subjectiva,
portanto,

00:51:12:14 – 00:51:15:08
que que depende do observador.

00:51:15:08 – 00:51:16:02
Não é, não é.

00:51:16:02 – 00:51:19:00
Não é uma medição com régua e esquadro,
não é?

00:51:19:10 – 00:51:22:02
É que se pode verificar com uma máquina
e uma medição

00:51:22:12 – 00:51:24:17
que é subjetiva e

00:51:26:18 – 00:51:29:13
neste caso, transitados
dizem que que as máquinas

00:51:29:13 – 00:51:32:01
estão realmente muito longe e que

00:51:34:23 – 00:51:36:17
até para o humano.

00:51:36:17 – 00:51:38:19
Eu escrevo à mão porque?

00:51:38:19 – 00:51:44:08
Porque tenho dificuldade em codificar
e exprimir o que é que está a ver.

00:51:44:13 – 00:51:47:05
Digamos, e sei que nós temos

00:51:47:23 – 00:51:50:07
os escritores e os sons estão

00:51:51:17 – 00:51:57:02
a recorrer se do léxico de linguagem,
que são centenas de milhares de palavras

00:51:57:12 – 00:52:00:14
e não encontram palavras
para aquilo que estão a ver

00:52:00:15 – 00:52:03:21
e, portanto, tentam fazer
lhes uma descrição da situação.

00:52:03:21 – 00:52:06:15
É quase uma, uma epifania, uma intuição.

00:52:07:08 – 00:52:08:24
Exactamente do limite.

00:52:08:24 – 00:52:13:22
Portanto, e já agora, estamos aqui
a falar da informação das máquinas,

00:52:13:22 – 00:52:17:04
a inteligência, a perceção
de que as máquinas são imensamente boas.

00:52:17:12 – 00:52:18:09
Nós já não.

00:52:18:09 – 00:52:19:15
Mas eu imagino que

00:52:19:15 – 00:52:23:15
que que há 50 anos, quando apareceram
as primeiras calculadoras às pessoas

00:52:23:16 – 00:52:29:00
e o pensava que era o demónio que se dizia
não sei quantas centenas de cálculos

00:52:29:00 – 00:52:32:03
por minuto ou qualquer coisa do género
que para nós agora fazemos

00:52:32:24 – 00:52:36:09
milhares de milhões por segundo
e achamos normal.

00:52:36:11 – 00:52:39:06
Mas imagino que que a reação teria sido

00:52:39:15 – 00:52:43:09
quase a mesma quando as pessoas agora veem
que é uma máquina que contabiliza

00:52:44:14 – 00:52:47:03
terabytes e portanto dez,

00:52:48:00 – 00:52:50:07
dez, levantava 12, não é

00:52:52:08 – 00:52:55:04
palavras e que

00:52:55:04 – 00:52:56:03
gera uma estatística.

00:52:56:03 – 00:52:58:12
Depois, com base nesta estatística,

00:52:59:21 – 00:53:03:12
produz sequências de palavras de acordo
as probabilidades

00:53:04:13 – 00:53:05:22
de ocorrência de cada uma.

00:53:05:22 – 00:53:07:02
Achamos isto

00:53:07:17 – 00:53:10:21
que havia,
mas é tão diabólico como era há 100 anos

00:53:11:22 – 00:53:14:00
fazer cálculos a uma velocidade
que o humano

00:53:15:15 – 00:53:16:24
não nunca conseguiria acompanhar.

00:53:16:24 – 00:53:20:11
Então, e com tanta conjugação de dados
objetivos e subjetivos

00:53:20:19 – 00:53:24:01
com realidades que são mensuráveis
e outras que nem tanto,

00:53:24:23 – 00:53:26:12
e eu consigo imaginar

00:53:26:12 – 00:53:30:03
que estas bases de dados sejam francamente
sozinhas de coisas.

00:53:30:13 – 00:53:34:06
Como é que de lá vamos retirar
o que é importante e principalmente,

00:53:34:06 – 00:53:38:14
como é que descobri
mos ambiguidades e contradições.

00:53:38:14 – 00:53:43:16
E agora lembrei me aqui de um bom exemplo
muito básico que é como é que nós mesmo

00:53:44:11 – 00:53:48:01
podemos ir aos registos e notariado
em busca de número de pessoas, certo?

00:53:48:01 – 00:53:49:24
Susana com e Susana com Z.

00:53:49:24 – 00:53:51:16
Certo Isto é uma ambiguidade.

00:53:51:16 – 00:53:54:07
São duas Susana ou é uma mesma Susana?

00:53:54:07 – 00:53:57:06
O que é que nós conseguimos peneirar isto?
Como é que limpamos isto.

00:53:59:10 – 00:54:00:12
É para

00:54:00:24 – 00:54:04:16
tocar, digamos lá, na questão relacionada
com o tema

00:54:05:17 – 00:54:09:18
da atualidade
desses modelos de linguagem e que,

00:54:10:01 – 00:54:14:10
portanto, eles também usam, digamos,
usam a estatística como instrumento.

00:54:14:19 – 00:54:18:19
Nós nas nos motores de busca, como Google.

00:54:18:19 – 00:54:24:01
O Google, quando faz uma pesquisa
e depois apresenta o resultado,

00:54:24:12 – 00:54:27:11
o que o fez foi a realizar

00:54:27:12 – 00:54:29:17
uma base de dados de

00:54:29:18 – 00:54:32:11
muitos milhões de documentos,
milhares de milhões de documentos

00:54:32:23 – 00:54:38:10
e depois ligamos se imagine que aparecia
para uma dada pessoa e este era.

00:54:39:07 – 00:54:43:02
Imaginemos que era, por exemplo, António
Guterres e provavelmente vai

00:54:43:05 – 00:54:44:04
se fizer uma pesquisa

00:54:44:04 – 00:54:48:00
e encontrará seguramente Guterres cristãos
e em 1000 documentos.

00:54:48:09 – 00:54:51:07
Mas como apareceram 10.000 ou 100.000?

00:54:51:13 – 00:54:54:16
Como que o Google

00:54:54:16 – 00:54:55:08
dirá?

00:54:55:16 – 00:54:57:16
Aliás, se eu sei isso não fiz.

00:54:57:16 – 00:55:00:17
Mas se o fizesse agora,
se escrevesse a António Guterres com Z,

00:55:01:05 – 00:55:03:06
eu dizia muito bem.

00:55:03:06 – 00:55:05:15
Vou lhe apresentar os resultados
para António Guterres,

00:55:05:19 – 00:55:07:23
porque eu acho que você está enganado.

00:55:07:23 – 00:55:11:16
Mas se por acaso tiver acerto,
confirme que é Guterres com Z.

00:55:11:23 – 00:55:16:19
Portanto, que que aconteceu
o sistema percebeu, percebeu

00:55:16:19 – 00:55:21:06
que é muito mais frequente que Guterres
com e com Z e imediatamente corrigiu.

00:55:21:12 – 00:55:21:18
Portanto,

00:55:22:18 – 00:55:24:19
estes sistemas fazem esta correção

00:55:24:19 – 00:55:26:19
com base nestas frequências relativas

00:55:28:19 – 00:55:32:00
e partem do princípio
como a informação é ditada colectivamente

00:55:32:01 – 00:55:35:06
por todos nós,
e portanto, se um dado facto

00:55:36:18 – 00:55:39:00
é registado 10.000 vezes

00:55:39:00 – 00:55:41:10
a dizer que a flor é Susana

00:55:41:18 – 00:55:44:06
com z e 100.000 que é com essa,

00:55:44:16 – 00:55:47:01
então eu vai dizer que com essa
e não com Z.

00:55:47:07 – 00:55:51:23
E isso é o aproveitamento da inteligência
coletiva

00:55:52:04 – 00:55:55:08
ou a ditadura da maioria.

00:55:56:01 – 00:56:01:08
Boa pergunta,
porque às vezes dá me jeito saber que

00:56:01:18 – 00:56:05:15
que o Guterres é o Guterres, o Guterres,
às vezes

00:56:06:03 – 00:56:08:20
a diversidade de ser uma outra coisa
qualquer também, por.

00:56:09:04 – 00:56:11:19
Exemplo, que eu estava a dar,

00:56:11:20 – 00:56:15:12
digamos, houve o cuidado de dizer eu

00:56:16:23 – 00:56:19:00
também tenho aqui um Guterres com Z.

00:56:19:00 – 00:56:21:18
Se está à procura do Guterres com Z,
então confirmo que é.

00:56:21:18 – 00:56:26:06
O que é que a maioria das pessoas
procura com esta?

00:56:26:10 – 00:56:30:16
Portanto, isso é, diria que é o que é
o respeito pela minoria.

00:56:30:23 – 00:56:33:09
Não é, portanto, que levar em consideração

00:56:34:01 – 00:56:38:07
que, quando se pesquisa Benfica,
pode haver pessoas que morrem,

00:56:38:07 – 00:56:42:06
não morrem de um bairro de Lisboa que
que não estejam propriamente interessados

00:56:44:13 – 00:56:46:04
no clube de futebol.

00:56:46:04 – 00:56:50:07
E, portanto, isso é isso é positivo.

00:56:50:07 – 00:56:51:05
E se nós fizermos isto

00:56:51:05 – 00:56:54:23
de uma forma responsável,
como agora se diz acautelar, temos,

00:56:55:11 – 00:56:58:11
digamos, essa

00:56:58:18 – 00:57:01:05
esse direito de satisfazer

00:57:01:05 – 00:57:04:03
as necessidades de informação
dos minoritários.

00:57:04:07 – 00:57:09:01
Se me preocupa mais, digamos, a forma como
tudo isto é manipulável e manipulado.

00:57:10:00 – 00:57:11:03
Sem nós percebermos.

00:57:11:03 – 00:57:16:01
Sem nós percebermos, porque se coisas isto
não é, digamos, não é um homem, um voto.

00:57:16:10 – 00:57:18:20
Porque se, pois os três sistemas são

00:57:21:02 – 00:57:23:13
muito não lineares, no sentido em que.

00:57:24:03 – 00:57:28:14
Se o Jorge é seguido por 10.000 pessoas
e seguido por dez,

00:57:28:23 – 00:57:32:07
se o Jorge ser que é Guterres com Z,

00:57:32:13 – 00:57:37:04
essa opinião do Jorge vale 1000 vezes
mais que a minha.

00:57:37:04 – 00:57:39:09
Lá estão os influências desta vida.

00:57:39:09 – 00:57:40:10
É exatamente.

00:57:40:10 – 00:57:43:09
Entretanto,
a Europa criou um sistema e ainda bem

00:57:43:19 – 00:57:45:19
de apresentação dos dados privados.

00:57:46:02 – 00:57:50:07
Também conhecido pela sigla RG
e Regulamento Geral de Protecção de Dados.

00:57:50:07 – 00:57:54:02
E eu olho para isto e digo sim
muitas regras, muita dificuldade

00:57:54:03 – 00:57:55:12
para várias coisas.

00:57:55:12 – 00:57:58:02
Ponha lá aqui a cruzinha
a dizer que autoriza os dados.

00:57:58:11 – 00:57:59:08
Não resolveu o problema

00:57:59:08 – 00:58:02:00
que eu continuou a receber telemarketing
como se não houvesse amanhã.

00:58:02:09 – 00:58:05:08
E todavia, quando eu quero ter acesso
uma informação legítima,

00:58:05:16 – 00:58:08:03
parece que não é desculpa perfeita
que há sobre isso.

00:58:08:03 – 00:58:10:05
Não porque o RPD não permite.

00:58:10:05 – 00:58:12:15
Para um investigador e para um engenheiro?

00:58:12:22 – 00:58:15:02
Como é que se está a dar com este zelo?

00:58:15:09 – 00:58:16:13
Excesso ou

00:58:17:14 – 00:58:20:08
o mal necessário?

00:58:20:08 – 00:58:22:17
Porque o
princípio da protecção de dados à partida

00:58:22:17 – 00:58:27:05
é uma coisa que eu abraço,
consagrando com grande entusiasmo.

00:58:27:24 – 00:58:31:08
Como como, digamos, como utilizador

00:58:32:02 – 00:58:34:03
e como cidadão,

00:58:34:21 – 00:58:37:08
partilho a sua frustração.

00:58:37:08 – 00:58:40:04
Eu sou muito cioso da minha privacidade
e, portanto,

00:58:40:20 – 00:58:44:10
não visite sites que não dão opção de eu

00:58:45:19 – 00:58:49:13
poder escolher
quais são os tratamentos que são feitos

00:58:49:14 – 00:58:53:04
como informação,
mas sim completamente esmagado.

00:58:53:07 – 00:58:57:03
Porque tem que responder 20 vezes por dia

00:58:58:09 – 00:59:00:03
a dizer que não quer.

00:59:00:03 – 00:59:04:02
Imagino que o contacto informal
com as pessoas,

00:59:04:23 – 00:59:07:17
digamos, normais,
que no dia a dia todos os

00:59:08:21 – 00:59:11:09
já decidiram, já já estão, digamos,

00:59:12:19 – 00:59:13:13
vacinados.

00:59:13:13 – 00:59:15:15
É pura e simplesmente dizer
ok, aceitam tudo?

00:59:15:15 – 00:59:18:18
Ok, sim, para saber,
para evitar aquilo que se vê.

00:59:18:18 – 00:59:22:08
Esta fotografia do não sei quantos
a fazer, não sei conter a curiosidade

00:59:22:22 – 00:59:27:09
mata qualquer qualquer desejo
de privacidade que as pessoas e portanto,

00:59:29:01 – 00:59:30:14
nesse aspecto

00:59:31:20 – 00:59:34:07
acho que a lei não teve,
não teve grande sucesso.

00:59:35:17 – 00:59:38:18
Mas, por outro lado,
acho que de alguma forma

00:59:38:19 – 00:59:42:17
tive bastante sucesso
a limitar que se faz dentro

00:59:43:02 – 00:59:45:18
das empresas.

00:59:46:00 – 00:59:49:07
Regulou, no fundo, o uso da informação
por parte das grandes empresas.

00:59:49:22 – 00:59:53:08
Em particular as grandes empresas,
portanto, têm sempre centenas

00:59:53:08 – 00:59:54:18
de milhares de funcionários.

00:59:54:18 – 00:59:56:07
A porque autorregulação isso haverá.

00:59:56:07 – 00:59:59:00
Sempre um dia que uma empresa não compra,

00:59:59:09 – 01:00:02:00
haverá um dia um whistleblower

01:00:02:14 – 01:00:06:18
que alertará o resto da sociedade
e, portanto, é um mecanismo

01:00:07:11 – 01:00:09:24
fortemente dissuasor por fazer

01:00:10:15 – 01:00:12:22
contra tratamentos abusivos de informação.

01:00:13:01 – 01:00:14:12
E ficamos mais atentos todos.

01:00:14:12 – 01:00:16:18
E esse foi o grande mérito da lei.

01:00:16:18 – 01:00:19:04
Eu acho que a nossa,
eu acho que do ponto de vista

01:00:20:09 – 01:00:23:09
da sociedade, o efeito, o efeito da lei

01:00:23:09 – 01:00:26:00
está se a perder com uma vacina
que depois vai perdendo.

01:00:26:10 – 01:00:29:02
E, portanto, eu acho que o meu a referir
que vejo que muita gente

01:00:29:16 – 01:00:31:20
se sente assim, que se implica que sim
a tudo.

01:00:32:09 – 01:00:35:21
Se o ser é só um clique,
porque se é que não tem, não é.

01:00:36:12 – 01:00:40:05
E tem que se desligar dessa coisa
que no fundo e é cansativo

01:00:40:05 – 01:00:42:13
do ponto de vista cognitivo,
ter que dizer que não

01:00:42:13 – 01:00:44:04
e a perceber
o que está dizer que não é sério

01:00:44:04 – 01:00:47:08
e portanto,
as pessoas vão pelo mais simples, não é?

01:00:48:00 – 01:00:49:15
E é sem

01:00:50:16 – 01:00:53:01
chegar a ter o efeito dissuasor que estão.

01:00:53:01 – 01:00:58:14
A questão aqui que que eu acho é que há
duas, dois aspectos que são preocupantes.

01:00:58:20 – 01:00:59:16
Primeiro,

01:01:00:22 – 01:01:05:15
esta lei é só para aqueles que cumprem
a lei, para os que não cumprem a lei,

01:01:06:22 – 01:01:10:22
não tem problema nenhum e, portanto,
dificulta e etc.

01:01:11:06 – 01:01:14:19
Mas, mas,
portanto, continuamos e portanto,

01:01:14:19 – 01:01:18:06
por isso é que provavelmente continuam
a receber emails, etc.

01:01:19:06 – 01:01:22:03
De empresas nas Caraíbas
há coisas de gente que estão fora

01:01:22:03 – 01:01:27:19
da nossa jurisdição e que de uma forma
que nós não sabemos exatamente como,

01:01:27:24 – 01:01:30:18
apenas respeitamos, digamos o seu,

01:01:31:21 – 01:01:35:08
os seus logos,
os seus comportamentos, escolhas

01:01:36:17 – 01:01:40:02
e portanto, essa é uma preocupação
em relação à pergunta inicial.

01:01:40:02 – 01:01:49:02
Tanto que me estão a fazer
falar dos investigadores.

01:01:49:17 – 01:01:53:10
Eu sou presidente da Comissão de Ética
do Instituto Superior Técnico e analiso

01:01:53:19 – 01:01:57:06
presentes dezenas de pedidos
por ano de projetos de investigação.

01:01:57:15 – 01:02:01:02
E não consegui encontrar ninguém
mais capaz para responder à pergunta.

01:02:01:02 – 01:02:03:12
E, portanto, vamos lá ver.

01:02:04:24 – 01:02:05:21
Antes

01:02:06:21 – 01:02:11:01
do RGPS, um investigador que fosse

01:02:12:02 – 01:02:15:15
sensato, que fizesse acordo
a sua atividade

01:02:15:18 – 01:02:18:16
de acordo com os princípios que guiam,

01:02:19:10 – 01:02:21:20
digamos, a antologia da investigação.

01:02:23:13 – 01:02:25:10
Faria tudo

01:02:25:12 – 01:02:28:15
igual mendigo
da mesma maneira que faz depois da lei,

01:02:28:15 – 01:02:31:20
com exceção de de comunicar

01:02:33:03 – 01:02:36:20
ao encarregado de proteção de dados
que está a constituir

01:02:36:20 – 01:02:38:14
uma base de dados, etc.

01:02:38:14 – 01:02:40:13
Portanto, na boa prática, nada, mas.

01:02:40:13 – 01:02:44:10
Boas práticas desde desde os anos 50, 60,

01:02:45:22 – 01:02:49:00
na investigação clínica,
no marketing, etc.

01:02:51:08 – 01:02:53:23
Costuma se dizer que dizemos que a lei

01:02:54:05 – 01:02:59:04
corporiza os comportamentos éticos
que são, digamos que são

01:03:00:13 – 01:03:03:12
consensuais na sociedade
e, portanto, coercivo.

01:03:03:17 – 01:03:08:18
E faz por ou pôr em letra de lei,

01:03:08:18 – 01:03:13:10
no fundo com penalizações,
aquilo que era o comportamento

01:03:14:02 – 01:03:17:03
sensato consensual dos investigadores

01:03:17:03 – 01:03:20:24
antes do LGP.

01:03:22:11 – 01:03:24:02
O que? O que de alguma forma

01:03:25:24 – 01:03:27:00
alguma forma

01:03:27:00 – 01:03:31:06
se passa é que,

01:03:31:06 – 01:03:36:00
em particular
com o advento de algumas tecnologias,

01:03:36:22 – 01:03:39:07
como como as da inteligência artificial

01:03:40:08 – 01:03:44:09
ou o uso para fins diferentes

01:03:44:10 – 01:03:48:06
daquilo com que
que uma tecnologia foi foi desenvolvida

01:03:48:18 – 01:03:52:10
ou que lida com questões como organismos

01:03:52:10 – 01:03:55:23
geneticamente modificados, etc.

01:03:56:16 – 01:04:00:12
Passou a haver também no nosso ordenamento
a obrigatoriedade

01:04:01:02 – 01:04:04:00
de estes projetos
serem terem o acompanhamento

01:04:04:00 – 01:04:07:06
de uma Comissão de Ética, portanto,
que é um grupo que de alguma forma

01:04:07:17 – 01:04:11:16
acompanha, supervisiona os investigadores
e lhes dá,

01:04:12:16 – 01:04:15:14
digamos, digamos, um conforto de si.

01:04:15:16 – 01:04:20:03
Um dia houver questões éticas
que sejam levantadas,

01:04:20:03 – 01:04:24:20
que possam
ter, digamos, o grupo cénico a dizer não.

01:04:24:20 – 01:04:28:21
Mas eles seguiram as boas práticas
e não fizeram isto isoladamente.

01:04:29:05 – 01:04:33:06
No laboratório, toma lembrar de um caso
que deu a volta ao mundo há uns anos,

01:04:33:15 – 01:04:36:15
do investigador chinês
que fez clonagem de humanos

01:04:36:24 – 01:04:39:21
sem a instituição onde eu estava
a trabalhar, a saber e portanto,

01:04:39:21 – 01:04:44:03
e de repente viu se em apuros muito sérios
e, portanto, de alguma forma,

01:04:44:13 – 01:04:48:04
quando, quando as coisas são feitas
de acordo com os procedimentos,

01:04:48:04 – 01:04:53:00
o investigador que está,
digamos, na linha de frente,

01:04:54:06 – 01:04:57:06
pelo menos tem, digamos, seguindo estes
procedimentos.

01:04:57:13 – 01:05:01:11
Tem o apoio institucional
e tem o apoio dos colegas

01:05:01:11 – 01:05:06:03
que foram informados
antecipadamente do que do que iria fazer.

01:05:06:03 – 01:05:11:17
O tratamento que iriam fazer é que
lhes ligamos a informação de que com 60 e.

01:05:12:03 – 01:05:14:06
Isso dá uma transparência ao processo
para fechar.

01:05:14:06 – 01:05:16:05
Os dados, estamos a passar.

01:05:16:05 – 01:05:20:04
O que está a acontecer,
então é que nas nossas organizações

01:05:20:23 – 01:05:22:23
nós estamos a ter

01:05:23:24 – 01:05:28:14
muitas, muitas,
muitas situações em que investigadores

01:05:28:14 – 01:05:32:14
que não tinham estas práticas passaram a
tê los porque passou a ser exigido.

01:05:33:08 – 01:05:37:12
Ok, não quer dizer que eles não fossem
conscienciosos.

01:05:37:19 – 01:05:40:21
Estou a dizer que foram obrigados
a formalizar,

01:05:41:07 – 01:05:43:15
a formalizar todos estes tratamentos.

01:05:43:23 – 01:05:47:00
E puxarmos a história, a nossa conversa.

01:05:47:00 – 01:05:49:22
Quanto tempo falta
para que a inteligência artificial apanhe

01:05:50:00 – 01:05:51:02
a inteligência natural?

01:05:52:16 – 01:05:55:09
Essa é a pergunta do costume

01:05:55:09 – 01:05:57:17
e acho que na comunidade

01:05:57:17 – 01:06:02:00
há uma grande diversidade de opiniões,
desde aqueles que dizem que

01:06:02:11 – 01:06:05:21
que são menos dez anos, outros que

01:06:05:21 – 01:06:08:13
que dizem que são mais 50 anos.

01:06:09:07 – 01:06:10:15
É uma pergunta

01:06:12:01 – 01:06:17:14
que vemos que suscita sempre reflexão.

01:06:18:22 – 01:06:20:21
Eu acho que vai faltar muito, mas

01:06:20:21 – 01:14:41:21
há coisas fundamentais.

Um comentário

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *