Aproveitem este episódio que, não tarda nada, e é um computador robô que faz o Pergunta Simples.
Um robô perguntador que interpela outro robô respondente.
Tudo a uma velocidade estonteante, onde a máquina perguntadora dispara mil perguntas por segundo e o computador do outro lado responde com tudo na ponta da língua. De silício, pois claro.
E claro, os ouvintes também tem de ser máquinas, para acompanhar o ritmo, para interpretar os bits e bytes das máquinas que fazem comunicação.
Ufa!
Não sei se gosto disto.
Preciso de pessoas. Humanos lentos, falíveis e, principalmente, imprevisíveis, criativos, generosos, empáticos.
Este é um programa sobre as máquinas que falam e sonham ser inteligentes. E sobre seres humanos que são inteligentes, mas ainda lutam por se entenderem.
Ah! E não se vos disse: sou o robô-clone do Jorge porque ele está ali na praia a gozar a vida. Ou no desemprego porque se tornou inútil.
Não se preocupem em subscrever o programa porque eu já sei tudo sobre vós. Onde escutam o programa e a que horas. Os temas que preferem e os que não gostam.
E por isso decidi subscrever-vos automaticamente no Spotify e nas outras apps.
Afinal vós humanos já disseram que sim aquelas irritantes listas que saltam no écran a dizer que aceitam os amistosos e inofensivos ‘cookies’ e assim alguém cuida das vossas preferências nos próximos anos.
Afinal, o Big Brother não é o do Orwell nem o da TVI. É essa maquininha chamada telemóvel ‘inteligente’ que tem na mão.
Houve um tempo em que os animais falavam.
O tempo da fábulas.
O tempo em que os animais se comportavam como humanos, dizendo coisas que os escritores punham na boca de patos, raposas ou burros, para não ofender os humanos que se comportavam da mesma forma.
O triunfo dos porcos é provavelmente a mais saborosa metáfora que se me ocorre da nossa vida em sociedade.
Agora estamos no tempo em que os computadores também decidiram começar a falar.
A falar de forma escrita. A falar imitando a voz humana. A falar imitando a nossa imagem.
Mas são só.
Os computadores estão agora a imitar as nossas pinturas magistrais. Os Picassos, os Dalis. A nossa poesia maior: Um Camões, um Pessoa eletrónico.
Será imitação ou mera estatística de palavras?
Qualquer um de nós pode ir ao computador pedir a vários programas na ‘internet’ que pinte uma nossa fotografia com as cores e técnicas de um pintor famoso. Ou que nos escreva um relatório sobre a vida selvagem na Serra da Estrela.
E os computadores escrevem. Porque estão cheios de informação e foram treinados a adivinhar estatisticamente as palavras que estão antes e depois.
É o caso do chamado “Chat GPT”
Será isto o primeiro vislumbre da chamada inteligência artificial? Ou um mero truque de magia destas calculadoras avançadas?
Esta história da inteligência artificial complica-me os nervos.
Por um lado fascina-me. Com todo o seu imenso potencial de resolver os nossos problemas humanos.
Por outro, assusta-me. Pelo potencial de criar mil outros problemas que não existem hoje.
Com mil génios dos computadores a tentar encontrar o Santo Graal da inteligência artificial, mas nenhum a conseguir sequer compreender como funciona o cérebro de uma mosca.
Fui por isso com esta cesta de dúvidas bater à porta de Mário Gaspar da Silva. Professor do Instituto Superior Técnico de Lisboa, estudioso dos temas da linguagem natural nos sistemas informáticos. E, detalhe muito importante, presidente da comissão de ética do instituto.
É porque esta conversa das máquinas que falam e que, alegadamente, pensam, não é só uma coisa de porcas e parafusos. É também sobre propósito, utilidade e delicadas fronteiras éticas.
Inteligência é uma palavra gigante onde cabem muitas coisas. Muitas ideias, conceitos, emoções, entendimentos.
E por isso funciona como uma caixa negra fascinante. Não sabemos como funciona. Sabemos que a podemos alimentar e também sabemos que podemos esperar o inesperado. É isso que faz com que os seres humanos de superem. Porque imaginam soluções diferentes para cada velho problema.
As máquinas são — até ver — mais previsíveis, mas mais aborrecidas.
São calculadoras gigantes que por agora nos devolvem as nossas próprias palavras e conhecimentos em forma de letra eletrotónica no écran.
Sabem imitar com rapidez e eficiência e descobrem padrões com grande facilidade.
É isso que são as ferramentas como o Chat GTP e as outras que aí vem: máquinas automáticas de dialogar.
Dependem da programação da pergunta e das respostas.
Mas ainda parecem incipientes no grande jogo da inteligência.
Até quando? Não sabemos.
Transcrição do episódio (automática)
00:00:12:24 – 00:00:13:20
Ou dádiva?
00:00:13:20 – 00:00:17:22
Bem vindos ao pergunta
simples ou voz pública sobre comunicação?
00:00:18:06 – 00:00:20:19
Aproveitem este episódio
que não tarda nada
00:00:21:06 – 00:00:24:05
e um computador robô
em que está a fazer perguntas simples
00:00:24:15 – 00:00:29:01
a um robô perguntador que interpela
um outro robô correspondente.
00:00:29:11 – 00:00:32:23
Tudo a uma velocidade estonteante
onde a máquina perguntador
00:00:33:00 – 00:00:36:11
dispara 1000 perguntas por segundo
e o computador do outro lado
00:00:36:12 – 00:00:39:24
responde com tudo
na ponta da língua de silício.
00:00:40:00 – 00:00:44:19
Pois claro e claro, os ouvintes também têm
de ser máquinas para acompanhar o ritmo,
00:00:44:19 – 00:00:48:12
para interpretar bits e bytes
das máquinas que fazem comunicação.
00:00:49:15 – 00:00:51:21
Ufa! Não sei se gosto disto.
00:00:51:21 – 00:00:55:10
Preciso de pessoas de humanos
lentos, falíveis e, principalmente,
00:00:55:10 – 00:00:59:01
imprevisíveis, criativos,
generosos e empáticos.
00:00:59:11 – 00:01:03:22
Este é um programa sobre as máquinas
que falam e sonham ser inteligentes
00:01:03:22 – 00:01:05:09
e sobre os seres humanos
00:01:05:09 – 00:01:08:20
que são inteligentes,
mas que ainda lutam por se entenderem.
00:01:10:05 – 00:01:12:15
E não vos diz Eu sou o robô
00:01:12:15 – 00:01:16:07
clone do Jorge, porque ele está ali
na praia a gozar a vida.
00:01:16:23 – 00:01:19:02
Ou então no desemprego,
porque se tornou inútil.
00:01:19:19 – 00:01:23:11
Não se preocupem em subscrever o programa
porque eu já sei tudo sobre voz,
00:01:23:18 – 00:01:27:02
onde escutam um programa, que horas
os temas preferem, os que não gostam
00:01:27:07 – 00:01:30:12
e por isso decidi subscrever
vos automaticamente no Spotify.
00:01:30:12 – 00:01:31:23
Mas outras aplicações?
00:01:31:23 – 00:01:34:12
Afinal, vós humanos, já disseram que sim.
00:01:34:12 – 00:01:37:07
Aquelas irritantes listas
que saltam no ecrã
00:01:37:18 – 00:01:40:19
a dizer que aceitam os amistosos
e inofensivos cookies
00:01:41:10 – 00:01:44:11
e assim
alguém cuida das nossas preferências
00:01:44:11 – 00:01:47:13
nos próximos anos,
sabendo tudo sobre a vossa vida.
00:01:48:04 – 00:01:52:02
Afinal, o migradas não é o download,
também não é o da TVI.
00:01:52:14 – 00:01:55:05
E essa maquininha chamada telemóvel
00:01:55:05 – 00:01:57:13
inteligente que tem agora na sua mão.
00:01:58:07 – 00:01:58:19
Parabéns!
00:01:59:18 – 00:02:01:22
O episódio é assuste.
00:02:02:06 – 00:02:03:11
O anime se
00:02:13:08 – 00:02:13:22
houve um tempo
00:02:13:22 – 00:02:16:22
em que os animais
falavam o tempo das fábulas,
00:02:17:05 – 00:02:19:17
o tempo em que os animais se comportavam
como humanos,
00:02:20:03 – 00:02:21:10
dizendo coisas que os escritores
00:02:21:10 – 00:02:24:10
punham na sua boca, na boca dos patos,
das raposas, dos burros,
00:02:24:21 – 00:02:27:23
para não ofender os humanos
que se comportavam da mesma forma.
00:02:28:10 – 00:02:31:11
O triunfo dos porcos
é provavelmente a mais saborosa
00:02:31:11 – 00:02:34:01
metáfora que me ocorre da nossa vida
em sociedade.
00:02:34:17 – 00:02:36:00
Isto no mundo das fábulas.
00:02:36:00 – 00:02:38:20
Agora estamos no tempo
em que os computadores também decidiram
00:02:38:20 – 00:02:41:14
começar a falar e falar na forma escrita,
00:02:41:21 – 00:02:45:16
a falar, imitando a voz humana,
a falar, imitando a nossa imagem.
00:02:45:16 – 00:02:46:20
Mas não só.
00:02:46:20 – 00:02:49:23
Os computadores estão agora
a imitar as nossas pinturas magistrais.
00:02:49:23 – 00:02:51:20
Os Picassos, os da Alice.
00:02:51:20 – 00:02:53:16
É o nosso poesia maior, um Camões.
00:02:53:16 – 00:02:55:01
Um som eletrônico.
00:02:55:01 – 00:02:59:11
Será imitação
ou mera estatística de palavras e cores?
00:02:59:19 – 00:03:02:12
Qualquer um de nós pode ir a um computador
e pedir
00:03:02:21 – 00:03:06:09
a esses vários programas de internet
que por agora aparecem, que pinte
00:03:06:16 – 00:03:09:21
a nossa fotografia
com cores e técnicas de um pintor famoso.
00:03:10:02 – 00:03:13:18
O Picasso pode ser o que nos escreva
um relatório sobre a vida selvagem
00:03:13:18 – 00:03:15:04
na Serra da Estrela.
00:03:15:04 – 00:03:18:14
E os computadores escrevem
porque estão cheios de informação
00:03:18:24 – 00:03:21:23
e porque foram treinados a adivinhar
estatisticamente
00:03:22:07 – 00:03:26:01
as palavras que estão antes
e depois daquela que escreveu.
00:03:26:07 – 00:03:29:24
É o caso do chamado
e agora popular chato CGTP.
00:03:30:09 – 00:03:33:20
Será isto o primeiro vislumbre da chamada
inteligência artificial
00:03:34:03 – 00:03:38:03
ou um mero truque de magia
destas calculadoras avançadas?
00:03:38:20 – 00:03:41:16
Esta história da inteligência artificial
está a complicar me os nervos.
00:03:42:01 – 00:03:44:20
Por um lado, fascina
com todo o seu imenso potencial
00:03:44:20 – 00:03:47:19
de resolver os nossos velhos problemas
humanos.
00:03:48:03 – 00:03:52:05
Por outro lado, assusta me pelo potencial
de criar 1000 outros problemas
00:03:52:14 – 00:03:55:16
que não existem hoje em dia,
com 1000 génios nos computadores
00:03:55:24 – 00:03:59:17
a tentar encontrar o Santo Graal
da inteligência artificial, mas nenhum
00:03:59:17 – 00:04:03:03
ainda conseguir sequer compreender
como funciona o cérebro de uma mosca.
00:04:03:15 – 00:04:05:24
Foi munido com esta sexta de dúvidas
00:04:05:24 – 00:04:08:07
que fui bater à porta de Mário
Gaspar da Silva.
00:04:08:08 – 00:04:10:17
Ele é professor do Instituto
Superior Técnico de Lisboa.
00:04:11:01 – 00:04:15:07
É um estudioso dos temas da linguagem
natural nos sistemas informáticos.
00:04:15:17 – 00:04:17:17
E detalhe muito importante.
00:04:17:17 – 00:04:20:09
Presidente
da Comissão de Ética do Instituto.
00:04:21:01 – 00:04:25:05
E porque estas conversas de máquinas
que falam e que alegadamente pensam
00:04:25:17 – 00:04:29:21
não é só uma coisa de porcas e parafusos,
é também sobre propósito,
00:04:30:07 – 00:04:35:13
utilidade e delicadas fronteiras éticas.
00:04:37:01 – 00:04:37:07
Eu sou
00:04:37:07 – 00:04:40:11
professor
de sistemas de informação e tenho.
00:04:40:11 – 00:04:45:02
Nos últimos anos tenho focado
na parte de engenharia de sistemas,
00:04:45:02 – 00:04:48:06
no que respeita a vertentes
e análise de texto.
00:04:49:04 – 00:04:51:20
Portanto, a informação é textual.
00:04:51:21 – 00:04:54:11
Obviamente que lidamos com toda
e misturamos todas.
00:04:54:12 – 00:04:58:09
Integramos todas,
mas sem dar mais atenção à vertente
00:04:59:13 – 00:05:00:06
textual.
00:05:00:06 – 00:05:03:11
Desde os motores de pesquisa
00:05:03:11 – 00:05:05:12
aos sistemas de gestão documental
00:05:06:16 – 00:05:09:15
até modernamente
00:05:09:15 – 00:05:13:04
tratamentos, mas ao mais alto nível,
porque nós tentamos também
00:05:14:03 – 00:05:16:03
a nossa atividade de investigação
00:05:16:20 – 00:05:20:16
estar a, digamos,
onde a tecnologia nos permitir.
00:05:20:18 – 00:05:24:06
Não é com a tecnologia de cada momento
e, portanto, nos últimos anos
00:05:25:11 – 00:05:27:05
avançamos para
00:05:27:16 – 00:05:31:08
coisas mais vagas,
como a análise dos seus sentimentos
00:05:31:08 – 00:05:33:12
e emoções, a desinformação
00:05:34:13 – 00:05:38:13
que que já estão, digamos,
um pouco para além daquilo que era
00:05:38:13 – 00:05:42:00
o objetivo inicial,
que era mais, mais lógico, mais exato
00:05:42:03 – 00:05:47:01
e passámos a ser muito mais estatísticos
a forma de tratar e olhar para o mundo.
00:05:47:04 – 00:05:51:12
Então como é que as máquinas
podem ter emoções e sentimentos?
00:05:51:12 – 00:05:53:07
Eu pensava que isso
era uma coisa exclusiva.
00:05:53:07 – 00:05:56:02
Só só de nós dois,
que aqui estamos e de quem está a ouvir.
00:05:58:19 – 00:06:01:13
Neste momento, que eu saiba,
não podem ter emoções e sentimentos.
00:06:01:21 – 00:06:05:22
O que eu estava a referir
era a análise de emoções e sentimentos e,
00:06:05:22 – 00:06:09:05
portanto, é possível treinar uma máquina
00:06:10:02 – 00:06:15:12
para detetar a sentimentos, quer
00:06:16:14 – 00:06:20:22
pela linguagem, pelo uso de certas
palavras que correspondem a sentimentos
00:06:20:23 – 00:06:26:23
e adjetivos que têm um pendor negativo,
enquanto outros têm um pendor positivo
00:06:27:18 – 00:06:30:02
ou expressões,
00:06:30:02 – 00:06:32:13
portanto, faciais, essencial para nós.
00:06:33:09 – 00:06:35:23
Nós nos comunicamos
00:06:35:23 – 00:06:38:04
e a comunicação, como nós
00:06:38:19 – 00:06:42:04
por nós, humanos, sentimos emoções
na comunicação com as emoções.
00:06:42:12 – 00:06:48:08
E, portanto, se nós fizemos uma máquina
no meio a analisar a comunicação,
00:06:49:08 – 00:06:51:11
se a emoção será transmitida
00:06:51:11 – 00:06:56:00
através dessa informação,
seremos, em princípio, capazes de tentar.
00:06:56:05 – 00:06:57:24
Isso não é. Perigoso.
00:06:59:04 – 00:07:01:14
E é perigoso
00:07:01:14 – 00:07:02:15
como todas as.
00:07:02:15 – 00:07:05:07
Como todas as tecnologias,
00:07:05:07 – 00:07:08:11
todas as tecnologias
são, digamos, uma espada de dois gumes.
00:07:08:11 – 00:07:12:06
Ao lado positivo e o lado negativo.
00:07:12:24 – 00:07:14:07
Se quisermos pensar
00:07:16:01 – 00:07:16:22
nas tecnologias
00:07:16:22 – 00:07:20:19
perigosas do dia a dia, provavelmente
uma das mais perigosas será, por exemplo,
00:07:21:16 – 00:07:25:02
a tecnologia automóvel
para assistir morrer centenas de pessoas.
00:07:25:16 – 00:07:28:04
Mas não é por isso que nós
não temos milhões de pessoas
00:07:28:23 – 00:07:31:07
a percorrer as estradas. É um bom exemplo.
00:07:31:08 – 00:07:36:11
Porque por que a tecnologia do automóvel
merece esta nossa bonomia?
00:07:36:17 – 00:07:40:11
Apesar de o excesso de velocidade
de um pião atropelado
00:07:40:24 – 00:07:44:12
por aquilo que polui e por aí fora,
a gente pode fazer uma lista infindável.
00:07:45:01 – 00:07:48:19
São horas, horas perdidas diariamente
por milhões de pessoas no trânsito.
00:07:48:21 – 00:07:51:13
Então, porque.
Tem tão boa boa fama nesta tecnologia?
00:07:51:16 – 00:07:55:08
Professor tem uma ideia.
00:07:55:15 – 00:07:58:00
É uma boa pergunta
e acho que é uma longa história.
00:07:58:23 – 00:08:02:16
Obviamente que toda a gente
00:08:03:10 – 00:08:05:20
tem uma balança interior
00:08:05:20 – 00:08:08:19
e vê o lado positivo e o lado negativo.
00:08:08:21 – 00:08:10:12
Não é, portanto, a conveniência
00:08:11:16 – 00:08:12:10
do automóvel.
00:08:12:10 – 00:08:14:21
A capacidade de alugar ou não poderia.
00:08:14:21 – 00:08:17:00
Ir até uma ideia de liberdade.
00:08:17:00 – 00:08:18:13
Há uma ideia claramente.
00:08:18:13 – 00:08:20:16
Basta olharmos,
00:08:20:17 – 00:08:23:22
por exemplo, estamos a falar de informação
e comunicação.
00:08:24:08 – 00:08:27:10
Basta olharmos
para os anúncios da indústria automóvel.
00:08:27:21 – 00:08:31:03
E são sempre, digamos,
as montanhas com vistas para o mar.
00:08:32:09 – 00:08:36:19
E se nós formos analisar os dados do dia
a dia dos automobilistas,
00:08:37:07 – 00:08:41:23
vemos que são horas de ser 19 e,
portanto, as pessoas compram o automóvel
00:08:41:23 – 00:08:46:12
com uma ideia de liberdade
idílica, quase idílica.
00:08:46:14 – 00:08:48:22
Não é, pois, o uso real,
00:08:49:22 – 00:08:52:08
digamos, confinado dentro
00:08:52:08 – 00:08:56:09
daquela daquelas estrutura metálica,
daquela lata,
00:08:56:14 – 00:08:59:14
daquela lata, que é o termo que eles usam,
mas que não queria
00:08:59:17 – 00:09:02:04
trazê lo agora para entrevista
e sim que eu chamo o meu carro.
00:09:02:19 – 00:09:05:07
Aquele da minha lata. A minha lata
00:09:06:11 – 00:09:08:16
que acaba para muitas pessoas.
00:09:08:23 – 00:09:11:16
Não sou eu o caso, porque o interessante
já não é o automóvel.
00:09:11:17 – 00:09:15:02
Sou, sou os para ir ao supermercado
praticamente.
00:09:16:21 – 00:09:19:07
Mas vejo que a grande maioria das pessoas
00:09:19:07 – 00:09:22:21
passa uma parte substancial das suas vidas
dentro daquelas latas.
00:09:23:02 – 00:09:25:03
Porque é uma vida miserável.
00:09:25:03 – 00:09:28:08
E, todavia, não nos interrogamos
muito sobre isso, nem.
00:09:28:08 – 00:09:30:03
Sobre isso exatamente.
00:09:30:03 – 00:09:32:14
E não olhamos para os impactos
00:09:33:05 – 00:09:36:12
não só nas nossas vidas,
mas também os impactos ambientais
00:09:37:17 – 00:09:40:07
que precisamos de alguma forma
a fazer com que
00:09:40:20 – 00:09:42:23
as gerações vindouras
00:09:43:12 – 00:09:46:17
venham a ter de pagar pela liberdade
00:09:47:06 – 00:09:49:24
que nós usamos nestes últimos 100 anos
00:09:50:01 – 00:09:52:23
na indústria automóvel.
00:09:53:08 – 00:09:57:15
E é e portanto
é por isso que acaba por ser apelativo.
00:09:57:15 – 00:10:00:09
Porque se nós da nossa balança pesar temos
00:10:01:19 – 00:10:04:14
os custos que não pagamos diretamente.
00:10:05:15 – 00:10:06:21
Se calhar
00:10:07:06 – 00:10:09:24
teríamos mais meios, vontade em mudar.
00:10:09:24 – 00:10:14:17
Se isso é um custo indireto que
que que está aqui implícito,
00:10:15:03 – 00:10:18:19
mas de que nós não falamos exatamente
exatamente.
00:10:19:06 – 00:10:22:03
É a vida e as tecnologias
00:10:22:03 – 00:10:25:02
são cheias de custos indiretos que
00:10:27:13 – 00:10:32:15
que que nós não consideramos
todas as tecnologias.
00:10:33:07 – 00:10:36:24
Hoje em dia, quando falamos das redes
sociais, excepto a a custos,
00:10:37:14 – 00:10:40:05
a custos, interesses elevados
00:10:40:14 – 00:10:43:09
e que ninguém pensa, também fomos.
00:10:43:13 – 00:10:45:08
Foi vendida a ideia
00:10:45:08 – 00:10:49:12
de voltar a reencontrar os amigos,
de estar mais perto dos avós.
00:10:49:13 – 00:10:51:24
Essa ideia é boa e. É uma ideia boa.
00:10:51:24 – 00:10:54:11
Mas depois também há as
00:10:56:08 – 00:10:58:20
aquelas pessoas que sofrem de aflição,
00:10:59:19 – 00:11:01:24
que sei que sofrem de depressões,
00:11:01:24 – 00:11:04:08
que são agravadas ou amplificadas
00:11:05:01 – 00:11:08:16
pelo uso intensivo dessas mesmas redes.
00:11:09:02 – 00:11:14:03
Portanto, como estávamos a dizer,
não existe tecnologia que não tenha
00:11:15:02 – 00:11:16:00
o lado
00:11:16:00 – 00:11:18:20
virtuoso e o lado vicioso toda está aí.
00:11:20:02 – 00:11:22:07
É preciso saber sabermos
00:11:22:07 – 00:11:24:15
colectivamente, ponderar
00:11:25:19 – 00:11:30:09
e tentar fazer com que os efeitos
negativos sejam minimizados
00:11:30:23 – 00:11:33:16
e os positivos maximizados.
00:11:33:23 – 00:11:36:07
Eu vim aqui bater à porta porque
00:11:38:00 – 00:11:42:09
toda a gente anda a falar
do chat GTP, CERT e agora
00:11:42:11 – 00:11:45:00
metade das pessoas que estão a ouvir
dizerem o quê?
00:11:45:09 – 00:11:47:04
De que é que vocês estão a falar?
00:11:47:04 – 00:11:50:01
Estamos a falar do quê? No meu tempo
00:11:50:01 – 00:11:52:08
os animais falavam, mas agora se falam
00:11:52:08 – 00:11:54:18
os computadores,
como é que é o que eu chamo de GTP?
00:11:55:11 – 00:11:57:14
Ora bem, é difícil.
00:11:57:17 – 00:12:01:15
É difícil explicar
quase tão difícil como explicar
00:12:02:21 – 00:12:05:20
o que é mecânica quântica. Mas
00:12:05:20 – 00:12:07:05
isso está a ficar complicado, porque.
00:12:07:05 – 00:12:08:09
Sim, está a ficar complicado.
00:12:08:09 – 00:12:11:00
Mas sei, vou tentar.
Mas eu não vou eximir.
00:12:11:09 – 00:12:13:17
Para os que,
como vamos começar pelo sintoma,
00:12:13:20 – 00:12:17:11
não sabe. Onde está toda
a gente, nem toda a gente, a
00:12:18:17 – 00:12:19:17
toda a gente.
00:12:19:17 – 00:12:22:24
Os motores de busca hoje em dia
é quase uma pesquisa,
00:12:23:11 – 00:12:27:23
mete uma palavra e o motor de busca
que diz logo por baixo de três ou quatro
00:12:27:23 – 00:12:32:05
linhas, coloque três ou quatro sugestões
do que é que será a palavra seguinte.
00:12:32:19 – 00:12:33:15
Rápido, rápida.
00:12:33:15 – 00:12:37:04
A isto é, se nós quisemos
fazer, por exemplo, o estado do tempo
00:12:37:13 – 00:12:41:16
e se puser, qual está a temperatura
00:12:41:16 – 00:12:46:00
em que ele provavelmente legislou ou morto
conforme o sitio nós temos.
00:12:46:18 – 00:12:50:12
Tanto ele adivinhou o que é, o que é que,
o que é que o podia procurar.
00:12:50:12 – 00:12:51:10
Tentou não.
00:12:51:10 – 00:12:54:07
Tudo o que, o que?
O que os sistemas fazem?
00:12:54:20 – 00:12:57:12
Recriar aquilo que chamamos
o modelo de linguagem
00:12:58:01 – 00:13:01:22
que é um palavrão,
mas que basicamente o que faz
00:13:02:08 – 00:13:05:21
é contabilizar as frequências relativas
às sequências.
00:13:06:03 – 00:13:08:07
Sequências múltiplas e agora em português.
00:13:08:08 – 00:13:13:08
Isso quer dizer isso quer dizer que,
por exemplo, quando eu ligo serras,
00:13:14:07 – 00:13:17:00
imediatamente na sua minha cabeça
vai a Serra da Estrela.
00:13:17:11 – 00:13:18:03
Se disse.
00:13:18:03 – 00:13:20:20
O secretário geral das Nações Unidas.
00:13:20:20 – 00:13:22:21
Claro, é óbvio. E, portanto, porquê?
00:13:23:06 – 00:13:27:09
Porque, para estas sequências, duas,
três palavras.
00:13:28:06 – 00:13:30:12
Se fizer a contagem e realizar,
00:13:30:21 – 00:13:33:22
pegar em todos os textos, a figura
chamemos um crop, uma recolha.
00:13:34:01 – 00:13:35:19
E ou mais dos três ou mais.
00:13:35:19 – 00:13:37:02
Estatisticamente.
00:13:37:02 – 00:13:41:24
E, portanto, no fundo,
fazendo a contabilidade de todas as vezes
00:13:41:24 – 00:13:45:07
que a seguir a estas duas palavras
aparece a terceira.
00:13:45:21 – 00:13:47:17
Chama se um trigramas.
00:13:47:17 – 00:13:50:15
Portanto, a terceira suceder.
00:13:50:17 – 00:13:54:14
Os Trigramas são grupos de três palavras
para podermos fazer pentagrama
00:13:54:15 – 00:13:56:03
com cinco, etc.
00:13:56:03 – 00:14:00:04
Portanto, se nós
contabilizarmos o número de ocorrências
00:14:00:12 – 00:14:04:09
de cada um destes pictogramas,
temos uma indicação de que
00:14:04:22 – 00:14:09:15
para aquelas as 4/1 palavras,
qual é a frequência da quinta?
00:14:09:18 – 00:14:10:19
É certo. Mas para que.
00:14:11:20 – 00:14:13:06
Serve para muitas?
00:14:13:06 – 00:14:16:15
Aquela que eu lhe indiquei é a primeira,
00:14:16:15 – 00:14:20:02
não é que é, portanto, por exemplo, o seu,
00:14:21:05 – 00:14:24:18
o seu motor de pesquisa,
o seu corretor ortográfico.
00:14:25:04 – 00:14:27:07
Não é, portanto, antecipar
00:14:27:19 – 00:14:30:20
qual é que é a palavra
que estatisticamente seria esperada.
00:14:31:05 – 00:14:33:17
É a seguir.
00:14:33:17 – 00:14:34:17
Portanto.
00:14:34:17 – 00:14:38:11
Dizer que nós olha que esperto
computador clique, clique.
00:14:39:17 – 00:14:43:19
A questão é que, portanto,
estamos a entrar no domínio da linguagem.
00:14:43:19 – 00:14:46:24
Mas já desde os anos
00:14:47:00 – 00:14:51:18
50957, apesar de um artigo seminal
em que diz que nós conhecemos
00:14:51:18 – 00:14:55:12
as palavras pela companhia,
começou como os humanos.
00:14:55:12 – 00:14:57:18
Um diz me quem és,
00:14:58:19 – 00:15:00:09
mesmo com quem vens correr atrás.
00:15:00:09 – 00:15:03:09
E eu digo que quem és não é. E, portanto,
00:15:03:09 – 00:15:05:19
desde desde essa altura
que se percebeu que
00:15:07:20 – 00:15:09:20
as palavras tendem
00:15:09:20 – 00:15:13:11
tendem a ocorrer a estar próximas
umas das outras,
00:15:13:11 – 00:15:15:18
quando elas são também
semanticamente próximas
00:15:16:21 – 00:15:18:18
e, portanto.
00:15:18:18 – 00:15:21:24
O que significa que para as máquinas
ou para este sistemas que estão montados
00:15:23:17 – 00:15:27:04
a regularidade,
como nós organizamos o discurso natural.
00:15:27:04 – 00:15:29:06
Certo, pode. Quase fazer sentido.
00:15:29:06 – 00:15:32:07
Matematicamente,
um dolo está a maior probabilidade.
00:15:32:07 – 00:15:37:11
E esta é a máquina vai conseguir ir
ajustando sempre o mais possível.
00:15:37:11 – 00:15:39:00
Mais provável exatamente.
00:15:39:00 – 00:15:42:20
É, portanto, o que estes modelos
de linguagem de alguma forma fazem.
00:15:42:22 – 00:15:43:24
E eu posso.
00:15:43:24 – 00:15:48:05
Por exemplo, eu tenho uma expressão,
uma expressão qualquer
00:15:49:16 – 00:15:51:02
sobre isso.
00:15:51:02 – 00:15:53:15
Imagine que eu estou a tentar
00:15:54:02 – 00:15:57:17
caracterizar a palavra
00:15:58:03 – 00:16:00:20
jaguar ok, e, portanto,
00:16:01:23 – 00:16:07:08
eu não faço ideia do que é que a Jaguar,
mas faço uma recolha textos milhões.
00:16:07:21 – 00:16:10:09
E repare que a palavra Jaguar
00:16:10:17 – 00:16:14:00
com muita frequência parece de proximidade
e puxasse uma janela,
00:16:14:02 – 00:16:17:14
duas ou três palavras para trás
e para a frente, perto automóvel.
00:16:17:23 – 00:16:18:13
Muitas vezes,
00:16:19:14 – 00:16:21:16
e portanto percebo
00:16:21:16 – 00:16:25:12
que tem
uma semântica relacionada com o automóvel.
00:16:25:20 – 00:16:29:01
Tenta semântica em organização integrada
da própria expressão.
00:16:29:13 – 00:16:31:14
Portanto, falar no sentido Victor,
tanto para.
00:16:31:14 – 00:16:33:05
Nós, é o nosso sentido.
00:16:33:05 – 00:16:35:19
O sentido dos conceitos nas coisas.
00:16:35:21 – 00:16:37:12
As palavras representam conceitos.
00:16:37:12 – 00:16:40:19
E qual é o conceito que se associa
então a cada palavra
00:16:41:09 – 00:16:45:16
e, portanto, mas também por análise
ao mesmo tipo de análise?
00:16:45:21 – 00:16:50:04
Repare que frequentemente, Jaguar
aparece associado
00:16:50:18 – 00:16:52:19
a um felino algures
00:16:53:07 – 00:16:56:13
na América Latina e, portanto,
o que a Jaguar
00:16:57:10 – 00:17:00:13
estiver dentro da máquina, que é fria
e só faz contas
00:17:00:18 – 00:17:03:23
sobre as frequências relativas
às palavras, fica a perceber
00:17:03:23 – 00:17:06:08
que pode ser, aliás,
que mentalmente eu disse a Jaguar.
00:17:06:24 – 00:17:09:03
Parecem as duas coisas.
Parecidas com as duas coisas.
00:17:09:07 – 00:17:10:20
Ele deve estar a falar disto ou daquilo.
00:17:10:20 – 00:17:13:17
Já excluiu milhares, milhões de coisas,
00:17:13:24 – 00:17:16:15
mas imediatamente
a sua atenção já está focada.
00:17:17:00 – 00:17:19:14
E quando eu disser a seguir
é Jaguar ir falar
00:17:20:02 – 00:17:23:18
em Amazonas imediatamente
excluiu logo a indústria automóvel.
00:17:23:18 – 00:17:27:08
E o animal, o que é uma coisa
que nos dá jeito mentalmente.
00:17:27:14 – 00:17:28:11
Enfim, porque
00:17:29:13 – 00:17:32:02
a diversidade
de conceitos e de palavras e ideias
00:17:32:10 – 00:17:35:14
dá nos um grande jeito de nós
conseguirmos focar muito próximo
00:17:35:14 – 00:17:37:09
daquilo que percebemos,
o que é que estamos a falar de todos.
00:17:37:09 – 00:17:37:21
Uns com os outros?
00:17:37:21 – 00:17:38:14
Não exactamente.
00:17:38:14 – 00:17:41:24
E, portanto, desde
há várias décadas que nós,
00:17:42:11 – 00:17:45:24
na gíria informática,
os anos em que o que se chama
00:17:45:24 – 00:17:49:20
processamento de linguagem natural,
que é uma técnica de texto,
00:17:50:05 – 00:17:54:14
esta estas ideias de olhar para frequência
relativas às palavras
00:17:55:02 – 00:17:58:18
é a seguir inferir
00:17:58:22 – 00:18:02:08
qual será o conceito
em que metade da palavra está a ser usada
00:18:03:20 – 00:18:04:10
num texto.
00:18:04:10 – 00:18:06:14
Portanto, não é adivinhação, é matemática.
00:18:06:14 – 00:18:11:04
E matemática pura é só e só
contabilidade básica de contar palavras.
00:18:11:16 – 00:18:15:15
E portanto, o que nós podemos fazer
é, portanto, caracterizar o significado
00:18:15:22 – 00:18:20:03
de uma palavra num texto com base
nas palavras que estão à volta dela.
00:18:20:13 – 00:18:24:02
Isto funciona,
não é aquilo que está neste momento
00:18:24:21 – 00:18:28:09
a citar toda a gente com os epítetos,
00:18:29:07 – 00:18:33:13
que é um que se chama
Lourdes, língua de uma modelo
00:18:35:05 – 00:18:36:24
de linguagem
00:18:36:24 – 00:18:40:08
grande,
grande, significa terabytes de texto.
00:18:40:08 – 00:18:43:20
Portanto, não estamos a treinar
00:18:43:20 – 00:18:46:11
um sistema que contabiliza
00:18:46:14 – 00:18:49:06
estas, estas frequências relativas.
00:18:49:16 – 00:18:54:12
Com base no texto Jesus
Luz Ideas ou da Literatura Portuguesa,
00:18:54:12 – 00:18:58:11
estamos a falar de toda a literatura,
toda a Wikipédia,
00:18:58:22 – 00:19:03:00
todos os chatos frases que para ela,
em termos desse texto, está.
00:19:03:00 – 00:19:03:21
Tudo lá, tem.
00:19:03:21 – 00:19:06:05
Tecnologia, utilizamos, contabilizamos,
00:19:07:05 – 00:19:10:00
contabilizamos numa,
00:19:10:00 – 00:19:12:09
num conjunto de informação
00:19:12:09 – 00:19:16:02
que era, digamos, impensável
há dez anos ou 20 anos atrás.
00:19:16:05 – 00:19:17:05
O que é que melhorou?
00:19:17:05 – 00:19:19:14
São as base de dados, são a rapidez
dos computadores, o que é que.
00:19:20:19 – 00:19:24:13
Eu acho que é que é que
é que a digitalização será?
00:19:24:24 – 00:19:27:11
Portanto, há 20 anos alguém que tivesse
00:19:28:14 – 00:19:31:14
tivesse esta ideia.
00:19:31:14 – 00:19:35:08
Portanto, como diz a ideia
de que as palavras se conhecem pelos que
00:19:35:08 – 00:19:36:21
estão próximos três décadas,
00:19:39:18 – 00:19:42:08
a barreira que encontraria é muito bonito.
00:19:42:10 – 00:19:44:13
Mas onde é que eu vou recolher esse texto
todo?
00:19:44:13 – 00:19:47:04
Onde é que eu vou encontrar máquinas
para fazer esse processamento?
00:19:47:07 – 00:19:51:12
No fundo, só funciona
se os Lusíadas saírem do papel e passarem
00:19:51:12 – 00:19:54:15
para dentro do computador e passar a estar
esse texto digitalizado lá dentro.
00:19:54:15 – 00:19:55:17
E nós agora fazemos.
00:19:55:17 – 00:19:59:06
Só dizemos tudo pelos pelos meios
digitais.
00:19:59:06 – 00:20:01:20
Portanto, a ar
00:20:01:20 – 00:20:05:05
as discussões em particular,
estamos a entrar no GPT,
00:20:05:16 – 00:20:09:24
portanto,
os créditos são fóruns de discussão,
00:20:09:24 – 00:20:13:07
fóruns de discussão
onde as pessoas falam e discutem.
00:20:13:13 – 00:20:15:02
E está tudo gravado.
00:20:15:09 – 00:20:17:01
Foi tudo gravado ao longo dos anos.
00:20:17:01 – 00:20:18:15
Não sei se não fico preocupado com essa
ideia.
00:20:18:15 – 00:20:20:10
Portanto,
quando nós vamos a um fórum de discussão
00:20:20:10 – 00:20:23:07
e dizemos Olha,
tenho aqui o meu problema, porque a minha
00:20:24:12 – 00:20:27:20
fechadura da minha porta range
não meio uma ajuda.
00:20:27:20 – 00:20:31:19
E eu e os meus amigos ou conhecidos,
ou quem for colocado
00:20:31:22 – 00:20:35:02
a dez ou 20 sugestões,
tudo isso ficou registado.
00:20:35:15 – 00:20:36:20
Obviamente.
00:20:37:18 – 00:20:39:09
Portanto, para. O bem ou mal.
00:20:39:09 – 00:20:40:13
Para o bem e para o mal, portanto.
00:20:40:13 – 00:20:42:12
Há uma memória da internet.
00:20:42:12 – 00:20:44:02
Absolutamente.
00:20:44:02 – 00:20:45:23
Portanto, hoje em dia
00:20:46:02 – 00:20:48:20
há. Não é uma memória.
00:20:48:23 – 00:20:51:17
E esse é outra das questões que nos deve
00:20:53:12 – 00:20:55:02
obrigar a reflectir.
00:20:55:02 – 00:21:00:04
Não é uma memória que é colectiva, no
sentido em que todos temos essa memória.
00:21:00:23 – 00:21:05:14
Há duas ou três
ou quatro chamadas gigantes tecnológicos.
00:21:05:15 – 00:21:07:20
Não é Google, a Microsoft, etc.
00:21:10:03 – 00:21:12:08
É uma zona que tem
00:21:14:10 – 00:21:15:10
essas.
00:21:15:10 – 00:21:16:24
A chave do castelo.
00:21:16:24 – 00:21:20:13
Tem a chave do castelo e já tem o castelo,
porque os Açores.
00:21:20:21 – 00:21:25:00
Portanto,
dominaram a infraestrutura, foram
00:21:26:18 – 00:21:29:15
alegremente beber em nós.
00:21:29:15 – 00:21:33:18
O nosso saber, a nossa poesia,
as nossas dúvidas
00:21:34:11 – 00:21:36:11
e guardaram tudo lá deles.
00:21:36:11 – 00:21:37:15
Absolutamente.
00:21:37:15 – 00:21:39:17
E agora, o que é que fazem com isto?
00:21:39:17 – 00:21:41:01
Agora fazem estas,
00:21:41:01 – 00:21:45:14
fazem muitas coisas como ajudar
lhes quando nós fazemos pesquisas, etc.
00:21:45:15 – 00:21:47:24
Essa base de informação
00:21:48:05 – 00:21:50:00
nos dava
00:21:50:00 – 00:21:53:03
para fazer coisas muito úteis como nós
00:21:54:07 – 00:21:56:06
podemos ir passar férias?
00:21:56:06 – 00:21:57:15
Nós temos muitas coisas
00:21:57:15 – 00:21:59:21
muito interessantes. Marca aqui
o seu hotel, é o mote.
00:22:00:03 – 00:22:02:06
Ajudamos a encontrar aquele sítio
certo, aquilo.
00:22:02:06 – 00:22:04:05
Se calhar não
o que pode pagar mais ou menos.
00:22:04:05 – 00:22:07:08
Mas, portanto, como há uma infraestrutura
que custa
00:22:08:08 – 00:22:10:23
dinheiro a construir e a manter.
00:22:11:02 – 00:22:13:11
Quem paga a conta,
alguém. Terá que pagar Inês.
00:22:13:16 – 00:22:16:05
Neste modelo atual, só os anunciantes.
00:22:16:11 – 00:22:18:18
Portanto, o facto de
00:22:20:04 – 00:22:22:16
os anunciantes terem
00:22:22:16 – 00:22:27:12
uma noção de que o que são os seus comportamentos, onde e onde é que passa o tempo
00:22:28:11 – 00:22:31:03
e as ideias que exprime.
00:22:31:03 – 00:22:33:19
Voltamos ao Jaguar
que quer este tipo comprar um carro novo,
00:22:33:19 – 00:22:37:04
um Jaguar ou quer ele ir ver
Jaguar algures no mundo.
00:22:37:13 – 00:22:39:18
Em função
disso, pode vender uma viagem e um carro.
00:22:40:01 – 00:22:42:08
Exatamente para ter um aspeto que
00:22:43:24 – 00:22:47:04
quer que que às vezes passa despercebido
00:22:47:22 – 00:22:48:16
e que
00:22:50:13 – 00:22:51:12
para estas empresas
00:22:51:12 – 00:22:53:13
eles é muito menos valioso
00:22:54:12 – 00:22:57:12
e muito menos valioso.
00:22:57:14 – 00:23:00:08
Aquilo que as pessoas dizem opinam
00:23:00:08 – 00:23:02:10
e muito face
00:23:03:03 – 00:23:06:03
àquilo que são os seus comportamentos.
00:23:06:15 – 00:23:08:04
O que é que eu faço com isso?
E aqueles não?
00:23:08:04 – 00:23:11:00
O que é que as próprias pessoas fazem
na internet?
00:23:11:00 – 00:23:14:21
As pessoas podem poder escrever
e dizer que adoram música clássica.
00:23:14:21 – 00:23:15:24
Que não têm interesse nenhum.
00:23:15:24 – 00:23:21:16
Mas nós podemos ter acesso à música que
ouve e percebemos que na verdade os ouve.
00:23:21:16 – 00:23:24:00
Música popular 80% do tempo.
00:23:24:00 – 00:23:26:22
Aliás,
as pessoas constroem as suas identidades,
00:23:26:22 – 00:23:31:17
como agora se diz, as suas imagens
e isso são construídas em função, digamos,
00:23:31:17 – 00:23:35:04
do ser ficcional
com que em certo idealismo.
00:23:35:13 – 00:23:37:10
Mas depois o seu dia a dia e o que fazem
00:23:39:02 – 00:23:41:18
não uma praia directamente descobrem.
00:23:42:02 – 00:23:44:07
A máquina descobre careca.
00:23:44:08 – 00:23:46:05
A máquina é a máquina
00:23:46:05 – 00:23:48:21
e portanto, no caso do automóvel,
pode efetivá.
00:23:48:21 – 00:23:53:16
Mente dizer que sabe tudo sobre Jaguar
e que vai comprar um Jaguar, etc.
00:23:54:03 – 00:23:56:04
Mas o sistema
00:23:56:07 – 00:23:59:01
dos seus comportamentos
00:23:59:01 – 00:24:03:21
não se deixará enganar
porque perceberá o que não tem
00:24:03:21 – 00:24:07:06
e não tem a capacidade económica
para adquirir um veículo daqueles
00:24:07:15 – 00:24:10:17
ou que não é,
digamos, do grupo de pessoas.
00:24:11:01 – 00:24:13:23
Basta, nós somos, somos,
somos seres sociais
00:24:13:23 – 00:24:18:04
e fazemos as coisas em face
daqueles que nos rodeia.
00:24:18:04 – 00:24:21:05
Se os seus seus amigos não têm jaguares
nem se interessam por jaguares,
00:24:21:06 – 00:24:25:03
é muito pouco provável que você,
quando diz que gosta de ser claro.
00:24:25:20 – 00:24:28:22
Que seja mentira ou melhor,
ele diz que gosta, mas não tem.
00:24:28:22 – 00:24:30:24
Mas não tem nenhuma razão
dizer não, não, não.
00:24:30:24 – 00:24:33:02
Não vou dizer mentir, mas digamos que
00:24:34:14 – 00:24:36:12
que que,
00:24:36:12 – 00:24:39:09
digamos, as pessoas falam sobre aquilo,
sobre a sua,
00:24:39:24 – 00:24:42:22
digamos, e a identidade da tal identidade
que constrói.
00:24:43:02 – 00:24:46:15
É uma persona que pode ser fictícia
ou que pode ser uma mistura
00:24:46:15 – 00:24:48:10
entre factos e desejos.
00:24:48:10 – 00:24:50:14
Exactamente, exatamente.
00:24:50:14 – 00:24:53:04
E a próprio
se pode nem sequer ter noção de que,
00:24:54:18 – 00:24:57:02
no mundo real é esse ser outra.
00:24:57:02 – 00:25:00:21
Outra questão
não é exatamente a mesma pessoa com que
00:25:01:14 – 00:25:04:01
com que se projeta
ou que é percebida pelos outros.
00:25:04:14 – 00:25:07:09
Pode não ser num dia, não é intencional
nem malicioso.
00:25:07:17 – 00:25:10:04
Nós todos que tivemos,
temos que ter um pouco disso.
00:25:10:09 – 00:25:12:01
Mas tenho que dizer que
00:25:12:01 – 00:25:14:22
eu, quando vim para aqui,
estacionei ali no parque de estacionamento
00:25:14:22 – 00:25:18:12
e antes fui ao restaurante
e obviamente paguei com o meu multibanco.
00:25:18:12 – 00:25:19:13
Agora, com o relógio é
00:25:21:04 – 00:25:22:05
no fundo.
00:25:22:05 – 00:25:24:18
Estou uma piada, sim.
00:25:24:18 – 00:25:25:11
Absolutamente.
00:25:25:11 – 00:25:27:05
Passaste nesta portagem
00:25:27:05 – 00:25:31:02
para que acho neste restaurante
tudo o que eu comi e como desisto.
00:25:31:03 – 00:25:32:15
Este automóvel não condiz.
00:25:32:15 – 00:25:34:17
Vieste no metro é e gasto do teu bilhete.
00:25:34:23 – 00:25:36:01
Tudo fica.
00:25:36:01 – 00:25:37:04
Ficou de alguma maneira registado?
00:25:37:04 – 00:25:39:11
Não sei de qualquer. Sim, é mais que isso.
00:25:40:04 – 00:25:42:18
E acho que o que é para mim
o que mais me assusta
00:25:43:18 – 00:25:47:00
nem é tanto isso como o facto de,
pelo facto de
00:25:47:00 – 00:25:53:05
eu estar conectado e relacionado,
continuar
00:25:54:18 – 00:25:58:09
a saber quem eu sou
ou o que eu sou, estar a condicionar
00:25:58:09 – 00:26:01:24
aquilo que os sistemas sabem
sobre aqueles que me são próximos.
00:26:03:04 – 00:26:04:18
Vou dar um exemplo que é o mais.
00:26:04:18 – 00:26:08:01
Ouvir todos não é para mim, é os emails.
00:26:08:02 – 00:26:11:11
Toda a gente envia emails no Gmail,
00:26:13:06 – 00:26:15:14
portanto, todos os dias
00:26:15:14 – 00:26:18:17
eu recebo dezenas,
centenas de mensagens de e-mail
00:26:19:12 – 00:26:22:23
e poderia ter que esta
ideia, digamos, naive.
00:26:23:05 – 00:26:28:04
Ok, não vou ter o meu email no Gmail
porque não quer que a Google saiba o que?
00:26:28:04 – 00:26:31:12
Aquilo que é que eu vou
no próprio servidor não é
00:26:32:04 – 00:26:35:06
o meu problema com os meus interlocutores.
00:26:35:06 – 00:26:38:02
Quase todos têm conta no Gmail
quando não têm contra o Gmail.
00:26:38:02 – 00:26:42:13
Tem um forma de reencaminhou a mensagem
automaticamente que, portanto, quer
00:26:42:13 – 00:26:43:14
eu queira, quer não queira.
00:26:43:14 – 00:26:47:11
Todas as minhas mensagens que entram
e saem estão guardadas no Gmail,
00:26:48:15 – 00:26:50:23
portanto, e pegando nisto,
00:26:51:15 – 00:26:55:01
temos também nos comportamentos que posso
decidir, por exemplo,
00:26:55:11 – 00:26:57:17
pagar sempre em dinheiro, mas
00:26:58:22 – 00:27:00:20
como no meu grupo social,
00:27:00:20 – 00:27:04:14
as pessoas todas costumam
ir frequentemente ao mesmo restaurante
00:27:05:10 – 00:27:09:05
e e portanto, e estamos ligados
à mesma rede wi fi no café.
00:27:10:04 – 00:27:10:13
Quando
00:27:10:16 – 00:27:13:03
quando fazemos o jantar de sexta feira,
00:27:13:16 – 00:27:18:11
eu posso não dar sinal de nenhum
de preferência pelo restaurante que for.
00:27:18:21 – 00:27:21:17
Mas o sistema
00:27:22:08 – 00:27:25:10
adquire a noção que há o grupo
três ou quatro,
00:27:25:11 – 00:27:28:18
cinco pessoas que regularmente
se encontram naquele sítio e.
00:27:28:21 – 00:27:32:16
Diz diz me, diz me com quem vens
e de ter quem tem doença completamente.
00:27:32:19 – 00:27:36:06
Voltemos ao site GTP e ferramentas conexas
a outras.
00:27:36:08 – 00:27:40:20
Com este sim, existem a uma a uma.
00:27:41:04 – 00:27:43:08
Há uma ênfase dos media
00:27:44:22 – 00:27:45:22
neste
00:27:46:16 – 00:27:48:10
neste nesta ferramenta.
00:27:48:10 – 00:27:53:12
Isto é, o Santo Graal ou é
ou é uma excelente manobra de marketing.
00:27:55:23 – 00:27:58:20
E uma excelente manobra de marketing
que claramente é.
00:27:59:03 – 00:28:01:05
Inquestionavelmente
00:28:01:09 – 00:28:03:21
não me parece que seja
00:28:03:21 – 00:28:07:02
sequer pelo conhecimento que eu
tenho do grupo.
00:28:07:02 – 00:28:10:13
Tenho acompanhado nos últimos dois,
três anos, que estas coisas
00:28:10:14 – 00:28:13:23
começaram a parecer
que este modelo seja o mais
00:28:15:00 – 00:28:17:19
sofisticado.
00:28:17:19 – 00:28:22:07
Nem parece que que a empresa
que criou o PN já seja mais avançado.
00:28:22:09 – 00:28:25:16
Não é tu, não era a Microsoft.
00:28:25:16 – 00:28:26:17
É a micro.
00:28:26:17 – 00:28:34:14
Se eu mesmo me lembro, digamos,
do percurso, a OPA foi criada, portanto.
00:28:34:15 – 00:28:36:18
Por isso a que se chamou no nome,
00:28:36:18 – 00:28:39:16
porque havia um grupo de pessoas
que estavam muito preocupados
00:28:39:16 – 00:28:43:00
com que estes grandes das tecnologias
estavam a fazer
00:28:44:04 – 00:28:47:04
nesta área de inteligência artificial
e que era importante
00:28:47:14 – 00:28:52:22
haver uma versão aberta, digamos, pública,
que pudesse ser usada por todos
00:28:52:22 – 00:28:55:21
e que permitisse que o público
saber o que se pode
00:28:55:21 – 00:28:57:05
e o que é que se está a fazer
com estas coisas.
00:28:57:05 – 00:28:58:04
E o que é que está a acontecer.
00:28:58:04 – 00:29:03:14
Na altura, a pessoa que era mais focal,
uma das mais quer dizer o que foi um chip.
00:29:03:14 – 00:29:05:02
Entretanto abandonou o projecto.
00:29:06:10 – 00:29:06:24
Mas havia.
00:29:06:24 – 00:29:11:00
Havia outras outras pessoas que víamos
com grande notoriedade
00:29:11:11 – 00:29:13:17
na área das tecnologias de informação.
00:29:14:24 – 00:29:18:14
Os milionários
que puseram dinheiro do seu bolso
00:29:18:14 – 00:29:23:13
para criar esta empresa
que iria ser um contrapeso
00:29:24:15 – 00:29:26:18
relativamente aos grandes da tecnologia.
00:29:26:18 – 00:29:28:02
Entretanto,
00:29:28:20 – 00:29:31:10
ela que abandonou o projecto,
00:29:31:10 – 00:29:33:17
aMicrosoft, que reforçou,
00:29:33:17 – 00:29:37:15
reforçou a posição e a Microsoft
nos últimos anos
00:29:38:19 – 00:29:42:24
deixou de ter o impacto
e agora voltou de alguma maneira.
00:29:43:11 – 00:29:46:04
Mas, digamos, a dez anos atrás,
a Microsoft
00:29:46:15 – 00:29:49:13
estava em queda de excelente.
00:29:49:13 – 00:29:50:03
E antes de
00:29:50:03 – 00:29:53:07
era que toda a gente tinha a Microsoft,
toda a gente tinha os Windows e eis.
00:29:53:12 – 00:29:57:10
O Facebook e a Amazon que apareceram
é que eram as já não era e que eram
00:29:57:10 – 00:30:01:04
as grandes, pois a Microsoft ainda hoje
nestes acrónimos das dos grandes
00:30:02:23 – 00:30:04:04
killers não encaixa que não.
00:30:04:04 – 00:30:05:09
Não se fala muito deles.
00:30:05:09 – 00:30:07:17
Mas voltando à questão aqui, então que
00:30:08:19 – 00:30:10:12
digamos este,
00:30:11:12 – 00:30:14:04
estes modelos de linguagem
estavam a ser trabalhados
00:30:14:04 – 00:30:16:22
pelo Facebook, pela Google, pelos chineses
00:30:18:02 – 00:30:20:12
e portanto, nem parece que o.
00:30:21:01 – 00:30:21:15
Que é que aconteceu?
00:30:21:15 – 00:30:23:07
Os chineses desistiram?
00:30:23:07 – 00:30:26:01
Não, não o contrario
00:30:26:01 – 00:30:28:20
ele provavelmente terá um,
00:30:28:20 – 00:30:31:08
três, um, três modelos de linguagem.
00:30:33:09 – 00:30:36:07
Não estou a lembrar do nome,
mas lembro de ter lido um artigo em que
00:30:36:21 – 00:30:40:15
o ou é comparável ao Lambda da Google,
que é o último do Google,
00:30:40:19 – 00:30:44:00
ou até se calhar já era superior
00:30:44:06 – 00:30:47:09
em inúmeros interpretes que tentam
00:30:47:17 – 00:30:50:00
medir, digamos, a complexidade do modelo.
00:30:50:14 – 00:30:53:12
Portanto, mas voltando a
estes modelos de linguagem, no fundo
00:30:53:24 – 00:30:56:18
permitem prever expressões
que agora chegamos ao chato.
00:30:56:19 – 00:31:00:07
GPT são os que fazem parte de um grupo
que se chama
00:31:00:07 – 00:31:02:17
os modelos fundacionais,
00:31:03:08 – 00:31:06:24
que que são modelos que não são treinados
para nenhuma aplicação
00:31:06:24 – 00:31:10:01
específica, são, são, são
00:31:10:16 – 00:31:13:23
e são treinados ou são,
00:31:14:16 – 00:31:17:10
portanto são criados
com estas frequências, etc.
00:31:17:10 – 00:31:19:24
Pois poder se ão fazer certas aplicações.
00:31:20:09 – 00:31:21:20
Há modelos fundacionais
00:31:23:04 – 00:31:23:23
que são
00:31:23:23 – 00:31:27:01
criados com grandes quantidades de dados
00:31:28:07 – 00:31:31:02
para, a partir de
00:31:33:00 – 00:31:34:08
sequências de texto,
00:31:34:08 – 00:31:40:12
criar imagens, cromos, análise atual
e sei o que hoje e depois e outros
00:31:40:12 – 00:31:45:09
que a partir de sequências de palavras
criam outras sequências top.
00:31:45:19 – 00:31:49:20
E algum que possa mimetizar a nossa voz.
00:31:49:20 – 00:31:52:18
O que aqui está
é para amanhã fazer este podcasts sozinho
00:31:53:17 – 00:31:55:22
com a nossa imagem, com também.
00:31:56:08 – 00:31:57:21
Portanto, também.
00:31:57:21 – 00:32:03:03
Já a Google, interessante, anunciou
há pouco tempo e pode e pode esperar.
00:32:03:04 – 00:32:05:01
Experimentei, mas vi que não, não pode.
00:32:05:01 – 00:32:07:06
Ainda não pode experimentar. Mas anunciou.
00:32:07:06 – 00:32:09:21
Já vi outras versões aqui do Google
00:32:09:24 – 00:32:11:24
em que pode, por exemplo, gerar música,
00:32:13:12 – 00:32:15:20
já que é uma sequência de sons.
00:32:15:20 – 00:32:18:11
Então a criatividade,
a criatividade humana vai morrer?
00:32:19:11 – 00:32:21:17
Não todo de todos.
00:32:21:17 – 00:32:22:19
Não, não me parece essa.
00:32:22:19 – 00:32:24:01
Máquina já pintada ali.
00:32:24:01 – 00:32:26:19
Essa máquina faz, me faz me rir. Um botão.
00:32:28:19 – 00:32:30:21
Só. Quem não vai transforma essas coisas
ao mesmo tempo.
00:32:31:06 – 00:32:31:23
Mas acho que não.
00:32:31:23 – 00:32:35:05
Acho que na minha perspetiva é uma.
00:32:35:22 – 00:32:37:03
É uma ferramenta.
00:32:37:03 – 00:32:40:22
De cada vez que nós
inventamos uma ferramenta nova,
00:32:41:06 – 00:32:44:11
ela vai lá, vai ali.
00:32:44:11 – 00:32:48:00
O mundo inteiro disse que os artistas,
00:32:48:00 – 00:32:51:21
ou que uma certa profissão vai
que nos aconteceu com a máquina,
00:32:51:21 – 00:32:55:03
foi por o caminho de ferro,
com o automóvel.
00:32:55:03 – 00:32:57:18
Eu diria que nos no caso dos bancários,
isso até foi verdadeiro
00:32:57:24 – 00:33:01:04
quando apareceram os
os multibancos e os homebanking.
00:33:01:05 – 00:33:04:09
E não sei que foi uma profissão
que cresceu muito e sem se.
00:33:04:21 – 00:33:07:04
Claro. Mas eu estou me a lembrar.
00:33:07:21 – 00:33:09:08
A agricultura
00:33:09:15 – 00:33:12:03
no início do século XXI,
no final do século XIX,
00:33:12:09 – 00:33:14:19
representava 90% dos empregos.
00:33:14:19 – 00:33:17:02
Hoje em dia representa dez.
00:33:17:02 – 00:33:18:22
O que acontece?
00:33:18:22 – 00:33:21:06
O que acontece
é que há uma redistribuição,
00:33:21:12 – 00:33:25:14
porque nós somos humanos
e enquanto humanos, nós, no fundo,
00:33:25:14 – 00:33:27:02
aquilo que estamos a fazer é
00:33:29:17 – 00:33:31:15
remunerar cada um
00:33:31:15 – 00:33:34:03
em sociedade pela sua contribuição.
00:33:34:10 – 00:33:38:15
Por exemplo,
nós valorizamos imensamente o que
00:33:39:09 – 00:33:43:11
jogadores de futebol
como Cristiano Ronaldo fazem e, portanto,
00:33:44:00 – 00:33:47:00
digamos,
a nossa riqueza colectiva é redistribuída
00:33:47:00 – 00:33:50:22
de forma que ele seja compensado
muito mais generosamente do que
00:33:52:01 – 00:33:55:00
do que as pessoas que, por exemplo,
trabalham no ensino, como eu.
00:33:55:02 – 00:33:57:05
E no fundo, no fundo,
nós podemos pensar que isso
00:33:57:08 – 00:34:00:20
é demasiado binário
e que é porque é que eu pago alguém e
00:34:01:21 – 00:34:05:17
milhares de euros
por ele chutar uma bola de couro? Sim,
00:34:05:19 – 00:34:06:07
mas na realidade
00:34:06:07 – 00:34:10:22
nós estamos a remunerar também
outra coisa que é a emoção que está, a que
00:34:11:14 – 00:34:17:04
os valores implícitos e fatos que não são
e que é diferente do agricultor.
00:34:17:04 – 00:34:18:17
Um quilo de batatas e um quilo de batatas.
00:34:19:24 – 00:34:20:20
Exactamente.
00:34:20:20 – 00:34:23:13
Mas a questão aqui é que nós, socialmente,
00:34:24:19 – 00:34:29:06
conjuntamente, produzimos riqueza
e depois distribuímos essa riqueza
00:34:29:07 – 00:34:33:05
de uma forma em que a repartição é feita
00:34:33:12 – 00:34:36:04
de acordo com o que valorizamos
e pode ser injusto ou não.
00:34:36:04 – 00:34:41:18
Não vou falar por aí, mas mas tenderá,
digamos, a representar essa valorização
00:34:41:18 – 00:34:44:12
e, portanto, é o que está a acontecer
com com estas ferramentas todas.
00:34:45:07 – 00:34:48:24
É o tipiti em particular que
00:34:51:15 – 00:34:55:01
os artistas, os criadores têm agora
00:34:55:02 – 00:34:58:04
uma nova ferramenta tomar, lembrar,
apresentar nos, falar das imagens.
00:34:58:04 – 00:35:00:03
Quando, quando há uns anos apareceu
00:35:00:03 – 00:35:03:21
as ferramentas digitais de tratamento
de imagem, surgiu hoje o Adobe Photoshop.
00:35:04:04 – 00:35:08:08
Também se falava
que era o fim da fotografia, pois cada um
00:35:08:08 – 00:35:12:06
agora pedir por si,
processar as suas fotografias, etc, etc.
00:35:13:01 – 00:35:17:15
O que aconteceu na prática
foi que a Kodak faliu porque não
00:35:17:19 – 00:35:22:04
acompanhou, mas muitas das empresas
transformaram se e adaptaram se
00:35:22:17 – 00:35:26:04
e socialmente houve um tumulto claramente.
00:35:26:12 – 00:35:29:13
Havia muita gente
nos laboratórios de fotografia e etc.
00:35:29:13 – 00:35:34:15
Que teve que encontrar outras outras
atividades, mas ao fim de algum tempo
00:35:35:21 – 00:35:37:23
já não é, digamos, não é drama nenhum.
00:35:37:23 – 00:35:41:09
As pessoas a arranjar outra forma
de contribuir socialmente
00:35:41:09 – 00:35:42:10
e de serem remuneradas.
00:35:42:10 – 00:35:45:24
Portanto,
o que nós vamos ter aqui com este,
00:35:46:00 – 00:35:51:03
com estas novas ferramentas
é um período de instabilidade,
00:35:51:03 – 00:35:54:19
em que haverá os que aprenderam
mais depressa a tirar partido
00:35:55:24 – 00:35:59:10
destas ferramentas e destes meios
00:35:59:10 – 00:36:01:13
e e outros que
00:36:02:03 – 00:36:05:00
que faziam trabalhos que agora
00:36:06:13 – 00:36:09:21
passaram a ser feitos mais facilmente
com este tipo de ferramentas.
00:36:09:21 – 00:36:11:10
Que tornam se obsoletos.
00:36:11:10 – 00:36:12:24
Que se tornam obsoletos, portanto.
00:36:12:24 – 00:36:15:19
Mas mas a sociedade, enquanto eu acho eu,
00:36:16:04 – 00:36:20:08
eu tenho essa ideia que ainda não vi
ainda não vi.
00:36:21:03 – 00:36:24:04
Ainda não vi acontecer
00:36:24:07 – 00:36:27:16
que o que quer que seja,
que a nossa sociedade
00:36:27:16 – 00:36:31:22
tenha deixado pessoas para trás com estas,
com estas alterações,
00:36:33:03 – 00:36:35:03
há grandes preocupações.
00:36:35:03 – 00:36:38:09
A questão do fosso digital
tem que ser, tem que ser gerida
00:36:40:00 – 00:36:41:15
coletivamente para não
00:36:41:15 – 00:36:45:03
deixarmos que os efeitos sejam demasiado
devastadores.
00:36:45:03 – 00:36:47:13
E assim pessoas
temos que gerir a transição.
00:36:47:22 – 00:36:49:19
Mas as transições
00:36:50:02 – 00:36:52:11
só são positivas.
00:36:52:12 – 00:36:56:23
Nós acabamos sempre por encontrar um meio
de acomodar as tecnologias,
00:36:57:03 – 00:36:58:23
porque eu acho que ninguém também
quer voltar para trás.
00:36:58:23 – 00:36:59:20
O tempo em que não tínhamos
00:36:59:20 – 00:37:01:22
estas tecnologias
não é o tempo em que não havia
00:37:02:23 – 00:37:05:08
eletricidade nem computadores na internet.
00:37:05:18 – 00:37:08:03
Acho que isso acho que era impensável
nos dias de hoje toda.
00:37:08:04 – 00:37:08:20
Todavia.
00:37:09:13 – 00:37:11:20
O Alto Comissário das Nações Unidas,
há um par de dias,
00:37:12:12 – 00:37:14:22
o Alto Comissário para a Paz
para os Direitos Humanos
00:37:15:09 – 00:37:18:24
avisou que esta coisa
da inteligência artificial latu sensu
00:37:19:11 – 00:37:22:03
pode ser uma séria
ameaça aos direitos humanos
00:37:22:09 – 00:37:25:17
e pediu expressamente que se criem
salvaguardas.
00:37:25:20 – 00:37:29:19
No fundo, a linha guia que uns tribos
00:37:30:01 – 00:37:33:18
acham que a palavra é essa mesmo uns tribo
para tentar controlar isto.
00:37:33:21 – 00:37:34:05
Certo
00:37:35:18 – 00:37:38:09
partilha
desta preocupação totalmente totalmente.
00:37:38:15 – 00:37:39:12
Portanto,
00:37:40:10 – 00:37:42:08
era, digamos nesse sentido
que eu estava a ir.
00:37:42:08 – 00:37:45:22
Portanto, nós temos que estar cientes
00:37:46:04 – 00:37:52:00
dos riscos e riscos de vária natureza
00:37:53:20 – 00:37:56:22
e pessoalmente, como eles estão a dizer.
00:37:56:22 – 00:38:00:10
E o risco da automação
00:38:00:10 – 00:38:03:02
é provavelmente o que menos me preocupa
00:38:03:15 – 00:38:07:01
a tese de que haverá pessoas que ficam
sem emprego.
00:38:07:05 – 00:38:08:07
Então, o que é que preocupa?
00:38:08:07 – 00:38:11:11
Preocupam me. Preocupa me
00:38:11:17 – 00:38:15:00
a parte da discriminação,
00:38:15:15 – 00:38:20:17
da exclusão das minorias.
00:38:22:08 – 00:38:27:03
Preocupo me com estes modelos.
00:38:27:08 – 00:38:30:24
As fugas de informação
é um aspeto que ninguém está a falar.
00:38:31:00 – 00:38:33:05
Estes modelos demorou algum tempo
a construir.
00:38:33:06 – 00:38:36:03
São muito caros por ser um impulso.
00:38:36:03 – 00:38:38:16
Mas imagino que destes modelos,
00:38:39:18 – 00:38:45:01
por acidente, capturava uma base de dados
com informação sensível.
00:38:45:14 – 00:38:48:09
Informação de saúde
por que é uma coisa que me preocupa muito.
00:38:48:21 – 00:38:49:09
Um número
00:38:50:19 – 00:38:52:03
elevado de pessoas.
00:38:52:18 – 00:38:55:08
Como é que faria
00:38:55:08 – 00:39:00:09
para repor a verdade ou para para que
o modelo se esquecesse deste caso?
00:39:00:10 – 00:39:02:19
Portanto,
também pode haver a situação de um museu
00:39:04:23 – 00:39:07:24
ser ser induzido
00:39:09:12 – 00:39:11:21
a capturar estatisticamente falsidades
00:39:13:03 – 00:39:15:18
e depois nós, da nossa conversa
00:39:15:18 – 00:39:19:08
com o chato CPT,
começas a perpetuar esses falsidades.
00:39:19:08 – 00:39:24:06
Por exemplo, possa repetir 1000 vezes
que Jorge é uma pessoa x y, z.
00:39:24:12 – 00:39:27:11
Propaganda propaganda é dito
00:39:27:20 – 00:39:30:19
não é uma mentira,
uma verdade e uma mentira ditas.
00:39:30:19 – 00:39:31:07
Muitas vezes.
00:39:31:07 – 00:39:33:05
Eu encontrei
não sei quantas referências a dizer,
00:39:33:05 – 00:39:35:01
portanto, obviamente, havia menos.
00:39:35:01 – 00:39:39:16
X um mês mais tarde
foram os chatos precipitei.
00:39:40:17 – 00:39:42:20
Mas o que é o Jorge Correia?
00:39:42:20 – 00:39:45:21
É ele vai me dizer o que tem
00:39:45:21 – 00:39:46:14
e, portanto,
00:39:47:16 – 00:39:50:12
há riscos de manipulação
00:39:52:02 – 00:39:55:23
destas bases de informação estatística.
00:39:57:08 – 00:39:58:05
Além de que obviamente
00:39:58:05 – 00:40:00:21
que a base de informação seria construída
00:40:01:24 – 00:40:04:14
por pessoas e, portanto,
o que lá é o que as pessoas lá quiserem
00:40:04:14 – 00:40:09:11
por os estiver do salário
e se quiseres, lá por nós, digamos,
00:40:09:18 – 00:40:13:11
podemos omitir ou podemos pôr mentiras
00:40:13:13 – 00:40:16:04
e o modelo vai responder por essas.
00:40:17:01 – 00:40:20:15
Por essas e por essas
e por essa informação.
00:40:20:15 – 00:40:22:10
Como é que se controla isso.
00:40:22:10 – 00:40:24:14
Ou está?
00:40:24:14 – 00:40:25:21
E esse é que eu acho que.
00:40:25:21 – 00:40:28:23
Porque se estou a pensar, por exemplo,
00:40:28:23 – 00:40:30:19
as nossas finanças, por exemplo,
nós estamos lá.
00:40:30:19 – 00:40:34:16
O número de contribuinte
é provavelmente o fenómeno mais universal?
00:40:34:19 – 00:40:37:06
Sim, para mim também
preocupa de alguma maneira, porque aquilo,
00:40:37:06 – 00:40:40:02
se calhar aquela base vai muito
para além daquilo que foi criada,
00:40:40:02 – 00:40:42:24
que foi paga aos seus impostos
e serve essa parte?
00:40:43:09 – 00:40:44:24
Todos compreendemos.
00:40:44:24 – 00:40:47:14
Mas às tantas aquilo já vem bocadinho
mais longe do que isso,
00:40:47:14 – 00:40:50:16
mas de qualquer forma
está a passar nas mãos do Estado e,
00:40:50:16 – 00:40:53:09
portanto, eu, como cidadão,
também posso ser um tribunal.
00:40:53:09 – 00:40:54:14
Foi uma estação?
00:40:54:14 – 00:40:57:14
Em princípio, sim. Mas mesmo nos sistemas
00:40:58:18 – 00:41:01:09
de geração imediatamente anterior
00:41:01:15 – 00:41:05:09
a este, esta nova vaga, por exemplo,
nós temos
00:41:07:05 – 00:41:08:23
no espaço europeu
00:41:08:23 – 00:41:11:01
a diretiva do Direito ao esquecimento.
00:41:11:19 – 00:41:13:07
Alguém já conseguiu exercer isso?
00:41:13:07 – 00:41:15:00
Sim, sim, sim. Sim, sim.
00:41:15:00 – 00:41:18:06
Quem o escrever a uma determinada entidade
e dizer escreve para finanças
00:41:18:06 – 00:41:20:07
não funciona. É melhor avisar as pessoas.
00:41:20:07 – 00:41:24:04
Mas eu tenho visto
estatísticas sobre o número de pedidos
00:41:24:22 – 00:41:28:04
que são feitos por cada país.
00:41:28:04 – 00:41:31:04
E, no caso português,
há muitos portugueses que já pediram
00:41:31:23 – 00:41:34:01
já exercer o seu direito ao esquecimento.
00:41:34:01 – 00:41:36:13
Dirigem se aos motores de busca.
00:41:36:13 – 00:41:38:00
Aos poucos, os desta vida a dizer ok,
00:41:38:00 – 00:41:41:19
toda a informação que vocês têm aqui
sobre mim é que façam favor de apagar.
00:41:42:01 – 00:41:44:07
Não apaga, deixam de indexar.
00:41:44:20 – 00:41:47:05
Ok? Tanto quanto é que eles não podem.
00:41:47:13 – 00:41:49:14
Portanto, o que está publicado no site
que eles não dominam,
00:41:49:14 – 00:41:53:16
não conseguem parar o site,
mas sem referências a informação de site
00:41:53:16 – 00:41:56:16
e podem pedir que essas referências
sejam eliminadas.
00:41:57:03 – 00:41:58:17
O que eu estava a referir é que ok,
00:41:59:19 – 00:42:01:02
mas estes modelos de
00:42:01:02 – 00:42:03:14
linguagem não têm estas referências todas
00:42:04:05 – 00:42:06:06
e portanto, em algum momento
eles vão apagar.
00:42:06:06 – 00:42:08:07
Como é que eu vou atualizar estes modelos?
00:42:08:07 – 00:42:09:12
Se eu sou, sou, portanto.
00:42:09:12 – 00:42:12:14
Obviamente que estamos à espera.
00:42:12:14 – 00:42:14:20
E para dizer vamos falar que sim.
00:42:14:20 – 00:42:17:16
Mas eu estou com o chip. Sim, porque?
00:42:18:08 – 00:42:19:13
Porque é que?
00:42:19:13 – 00:42:20:12
Porque é que quer?
00:42:20:12 – 00:42:23:16
Agora, de repente, que se está a falar
tantos que a questão segue?
00:42:23:23 – 00:42:26:19
Uma das razões que eu tenho ouvido
para o facto
00:42:26:19 – 00:42:29:19
de outras empresas que já trabalham nisto
00:42:30:03 – 00:42:34:14
com mais esforço não terem feito
é porque estavam com medo do risco.
00:42:34:14 – 00:42:37:23
Se agora, de repente se é ou planeia
e decidiu
00:42:39:17 – 00:42:42:08
tornar este modelo
público para as pessoas,
00:42:42:15 – 00:42:44:23
porque experimental é só brincar, etc.
00:42:45:04 – 00:42:47:04
Não há nenhum produto comercial.
00:42:47:04 – 00:42:49:08
Vamos poder começar a fazer perguntas
sobre isso também.
00:42:49:11 – 00:42:52:10
Dizer quem é que está a fazer
estas coisas é mais avançada
00:42:53:23 – 00:42:54:03
porque?
00:42:54:03 – 00:42:56:04
Porque eu dos mais avançados.
00:42:56:22 – 00:43:00:13
Será claramente a Google,
claramente Facebook,
00:43:00:17 – 00:43:03:01
embora se diga que está a ficar um pouco
para trás
00:43:04:02 – 00:43:07:23
e do lado chinês
os os os grandes tecnológicos chineses.
00:43:08:18 – 00:43:14:02
Nós no mundo ocidental não falamos dele,
não conhecemos não, não conhecemos.
00:43:14:02 – 00:43:17:15
Mas há ferramentas como é chato, etc.
00:43:17:24 – 00:43:21:15
Que têm mais utilizadores que nós
00:43:22:06 – 00:43:26:06
no Oriente, que nós todos no mundo
ocidental, conjuntamente.
00:43:26:06 – 00:43:30:22
Temos, portanto, as gigantes tecnológicas
também no mundo oriental.
00:43:31:07 – 00:43:34:20
E é porque eles estão a fazer o mesmo
tipo de investimentos de desenvolvimento.
00:43:34:21 – 00:43:36:01
E não chegamos lá porque?
00:43:36:01 – 00:43:39:21
Porque não conseguimos compreendê los,
porque essa informação
00:43:39:21 – 00:43:41:22
está mais escondida.
00:43:42:00 – 00:43:44:03
Eu gostava de saber o que é que quer, que
00:43:44:03 – 00:43:45:22
que é que de interessante
os chineses estão a fazer, não é?
00:43:47:18 – 00:43:49:05
Sim, agora
00:43:51:18 – 00:43:52:11
a nossa cidade é
00:43:52:11 – 00:43:55:04
uma cidade muito mais aberta,
incomparavelmente mais aberta.
00:43:55:18 – 00:44:00:24
E é no mundo ocidental
temos uma língua franca,
00:44:01:06 – 00:44:05:07
o latim moderno, que se chama o inglês
e que que é a linguagem
00:44:05:07 – 00:44:06:21
quase universal de comunicação.
00:44:06:21 – 00:44:11:10
Portanto, é muito mais fácil
a informação e o conhecimento
00:44:11:20 – 00:44:15:00
fluir dentro do nosso mundo
do que no mundo.
00:44:15:18 – 00:44:18:06
Onde a língua é diferente e a cultura.
00:44:18:06 – 00:44:19:08
É completamente diferente.
00:44:19:08 – 00:44:21:12
E, portanto, isso faz com que haja
00:44:22:14 – 00:44:24:23
muito mais dificuldade do nosso lado,
00:44:25:08 – 00:44:27:21
além de que o regime
00:44:29:01 – 00:44:30:24
político em vigor nessas.
00:44:30:24 – 00:44:33:07
Cidades é mais fechado
e, portanto, não permite isso.
00:44:33:16 – 00:44:37:21
Então, quando é que a máquina inventa
um raio de uma tradução simultânea decente
00:44:38:08 – 00:44:40:21
para eu poder acessar a guia
e gravar um podcasts?
00:44:40:23 – 00:44:41:23
Com quem?
00:44:41:23 – 00:44:45:01
Com o chinês lá
está em que eu falo português e ele fala
00:44:46:02 – 00:44:47:12
fala chinês, me fala mandarim
00:44:47:12 – 00:44:51:10
é que tudo isto faça sentido.
00:44:51:19 – 00:44:54:05
Eu não sou especialista em tradução.
00:44:54:10 – 00:44:56:08
Mas nós experimentamos as traduções.
00:44:56:08 – 00:45:00:08
Já existe, está muito porque senão se não
existe, está muito perto de acontecer.
00:45:02:01 – 00:45:05:22
Eu lembro de ter estado na China
há uns anos,
00:45:06:12 – 00:45:08:13
há menos de dez anos, mas há mais de cinco
00:45:09:04 – 00:45:11:15
e entrava no táxi
00:45:12:17 – 00:45:17:03
e e. Portanto,
não havia qualquer dificuldade porque
00:45:18:06 – 00:45:22:07
ou falava ou ou eles pediam para digitar
00:45:22:21 – 00:45:26:18
o que queria da cria
e imediatamente eles respondiam Portanto,
00:45:27:12 – 00:45:31:08
nós aqui que não nos socorremos antes
essas ferramentas, por exemplo, lá.
00:45:31:08 – 00:45:32:18
Está temos o latim, inglês.
00:45:32:18 – 00:45:39:05
Temos exactamente, mas para hoje
para os chineses, esse tipo de ferramentas
00:45:39:05 – 00:45:42:00
usamos com muito mais regularidade no dia
a dia.
00:45:42:00 – 00:45:45:12
Não para de
não para traduzir obras literárias, etc.
00:45:46:01 – 00:45:48:07
Mas para para as conversas do dia a dia.
00:45:48:11 – 00:45:51:20
Eu tenho ideia que essas ferramentas
são usadas por muita gente
00:45:51:23 – 00:45:52:22
para comunicação franca.
00:45:52:22 – 00:45:58:20
Nós já falamos aqui em passagem na questão
dos dados, no campo da saúde interessa.
00:45:59:06 – 00:46:04:14
Em particular, estamos sentados
numa pilha gigantesca e valiosa de dados.
00:46:05:00 – 00:46:09:21
Ou estamos sentados numa completa
anarquia de dados que estão lá,
00:46:10:07 – 00:46:13:20
mas que ainda não nos estão a servir
para grande coisa.
00:46:13:20 – 00:46:14:10
Neste altura
00:46:15:12 – 00:46:18:03
estamos a falar da informação de saúde,
enquanto em concreto.
00:46:18:11 – 00:46:21:06
Desde desde aquilo que está
00:46:21:06 – 00:46:26:03
desde os nossos registro,
o nosso boletim de vacinas, por exemplo,
00:46:26:10 – 00:46:30:12
até aos nossos exames,
todos os sítios onde vamos? Sim,
00:46:31:21 – 00:46:32:17
portanto,
00:46:33:11 – 00:46:35:04
neste domínio
00:46:36:23 – 00:46:39:14
nós temos feito uma evolução
00:46:41:16 – 00:46:46:10
muito, muito rápida e passámos a.
00:46:46:15 – 00:46:49:17
Tivemos tempo em que as notas dos médicos
00:46:50:00 – 00:46:53:00
eram escritas em papel
e por último, vacinas.
00:46:53:00 – 00:46:55:17
Também era papel e hoje é tudo digital.
00:46:55:17 – 00:46:57:24
Está tudo na forma digital
00:46:57:24 – 00:47:02:07
e temos que
os clínicos estão incrivelmente
00:47:02:16 – 00:47:07:00
mais sensibilizados
para registar a informação.
00:47:07:11 – 00:47:10:20
Porque têm, têm uma noção do enorme valor
00:47:11:09 – 00:47:15:19
que pode ter no futuro
registar essa informação.
00:47:15:19 – 00:47:19:17
Mas isso implica escrever à mão, além de
depois ir conseguir beber as várias
00:47:19:17 – 00:47:24:05
fontes, sei lá as análises
que eu acabei de fazer, de juntar tudo.
00:47:24:13 – 00:47:25:24
Esse é um dos grandes dilemas,
00:47:25:24 – 00:47:32:00
portanto, obviamente que hoje em dia
já se usa a tecnologia para
00:47:33:13 – 00:47:35:22
para capturar muitas informação.
00:47:35:22 – 00:47:39:17
Por exemplo, se for fazer uma ecografia
e muito provavelmente o médico
00:47:40:02 – 00:47:42:23
falará para um aparelho que faz
00:47:44:08 – 00:47:47:07
a gravação do áudio
e depois faz a transcrição para o texto
00:47:47:19 – 00:47:51:02
e a seguir temos um assistente
00:47:52:04 – 00:47:57:16
pega nesse texto e produz, digamos,
uma versão preliminar do relatório.
00:47:57:16 – 00:47:59:21
E vai fazer de vírgulas
que não vai estar no Citius.
00:47:59:22 – 00:48:01:06
Faz uma validação final.
00:48:01:06 – 00:48:04:20
Está a permanentes muitos processos
00:48:05:07 – 00:48:07:11
em que a tecnologia digital
00:48:08:13 – 00:48:10:18
já é usada no dia a dia.
00:48:10:20 – 00:48:12:23
Mas eu estava a falar
dando um passo à frente, que é
00:48:13:11 – 00:48:17:03
não só de que essa minha ecografia
possa estar disponível nos vários sítios
00:48:17:03 – 00:48:19:24
ou vários médicos
onde eu possa ir, como cruzada
00:48:19:24 – 00:48:22:08
com as minhas análises de sangue,
como cruzada
00:48:22:08 – 00:48:25:17
com aquilo que o médico apontou
sobre aquilo que pensamos exactamente.
00:48:26:07 – 00:48:30:20
Nós temos um projeto em curso no âmbito
do Programa Carnegie Mellon Portugal,
00:48:31:21 – 00:48:33:23
com o Hospital da Luz,
00:48:33:23 – 00:48:36:05
em que olhamos precisamente para esse tipo
00:48:37:14 – 00:48:39:24
de tratamentos e, portanto,
00:48:39:24 – 00:48:42:21
realmente a informação laboratorial,
00:48:44:16 – 00:48:46:12
a informação
00:48:46:19 – 00:48:51:17
do registo clínico
e a informação estruturada no sentido em
00:48:51:17 – 00:48:54:24
que o médico, quando testar uma consulta,
escreve a marca
00:48:56:00 – 00:48:58:19
diabético, hipertenso
00:48:58:19 – 00:48:59:10
e marca.
00:48:59:10 – 00:49:02:22
Mas isso não vai aumentar muito
a carga de trabalho do pessoal de saúde.
00:49:02:22 – 00:49:05:12
Estou a pensar uma coisa
é aquilo que é o normal
00:49:05:12 – 00:49:08:10
que o médico já faz, ao que o enfermeiro
faz outra coisa a dizer.
00:49:08:10 – 00:49:13:03
Bom, mas para isso ser mesmo perfeito,
o médico pessoal tem que passar aqui
00:49:13:03 – 00:49:17:03
mais meia hora neste sistema
que nós inventamos e escrever tudo
00:49:17:14 – 00:49:21:05
exatamente em caixinhas, em padrões,
para que a informação já está recolhida.
00:49:21:14 – 00:49:23:03
Ou, pelo contrário,
00:49:23:03 – 00:49:25:12
vamos deixar que, naturalmente,
cada profissional
00:49:25:12 – 00:49:29:08
faça o que tem para fazer e depois
inventamos um bom sistema para beber.
00:49:29:22 – 00:49:34:02
Entre as coisas boas e as incongruências
que possa haver nessa nesse descritivo.
00:49:34:18 – 00:49:37:12
O processo é um processo longo,
00:49:37:24 – 00:49:40:24
geracional e tem os seus dois lados.
00:49:41:09 – 00:49:44:00
Portanto, por um lado,
00:49:44:00 – 00:49:46:07
há um incentivo
00:49:46:07 – 00:49:49:05
para que a informação
seja cada vez mais codificada,
00:49:50:03 – 00:49:53:09
com códigos de terminologias
clínicas x centro
00:49:54:10 – 00:49:55:00
e, por outro.
00:49:55:00 – 00:49:58:10
Lado, é diabético, não é diabético,
tem hipertensão, não tem hipertensão.
00:49:58:10 – 00:49:59:20
Porifera Exatamente.
00:49:59:20 – 00:50:01:01
Mas depois vem a outra parte.
00:50:01:01 – 00:50:03:03
Quer dizer que é parte humana em excesso?
00:50:03:10 – 00:50:05:13
O que é que eu acho o prognóstico.
00:50:05:13 – 00:50:07:12
É exactamente aí.
00:50:07:12 – 00:50:09:21
Hoje em dia, em particular
00:50:10:09 – 00:50:16:08
nos processos clínicos de alto nível,
recorremos a linguagem e o texto.
00:50:16:09 – 00:50:19:18
Tantas notas clínicas escritas
00:50:20:13 – 00:50:22:12
pelos médicos continua a ser a norma.
00:50:22:12 – 00:50:24:20
E, portanto, subjectivas também
nalguma parte do. Sujeito.
00:50:24:20 – 00:50:26:22
Mas a informação é
00:50:27:11 – 00:50:28:17
e é subjetiva.
00:50:28:17 – 00:50:34:01
Quer dizer que eu estava aqui
a distinguir, dentro do processo clínico,
00:50:34:05 – 00:50:35:03
entre
00:50:35:19 – 00:50:40:24
a informação objectiva e factível
que é igual à dos físicos e dos químicos,
00:50:40:24 – 00:50:45:20
que é dizer se é miligramas
por decilitro, glucose e são decisões,
00:50:46:06 – 00:50:48:14
mas depois diremos quando,
00:50:48:22 – 00:50:52:07
quando
e quando vai para os níveis mais altos.
00:50:52:07 – 00:50:55:24
Por exemplo,
se está numa consulta de psiquiatria,
00:50:56:11 – 00:50:59:12
exceto,
portanto, o que o médico está a registar.
00:51:00:07 – 00:51:03:05
A expressão ausente é só um
00:51:04:08 – 00:51:07:04
olhar distraído, qualquer coisa.
00:51:07:15 – 00:51:08:11
E isso é mais difícil.
00:51:08:11 – 00:51:11:24
São sinais e informação subjectiva,
portanto,
00:51:12:14 – 00:51:15:08
que que depende do observador.
00:51:15:08 – 00:51:16:02
Não é, não é.
00:51:16:02 – 00:51:19:00
Não é uma medição com régua e esquadro,
não é?
00:51:19:10 – 00:51:22:02
É que se pode verificar com uma máquina
e uma medição
00:51:22:12 – 00:51:24:17
que é subjetiva e
00:51:26:18 – 00:51:29:13
neste caso, transitados
dizem que que as máquinas
00:51:29:13 – 00:51:32:01
estão realmente muito longe e que
00:51:34:23 – 00:51:36:17
até para o humano.
00:51:36:17 – 00:51:38:19
Eu escrevo à mão porque?
00:51:38:19 – 00:51:44:08
Porque tenho dificuldade em codificar
e exprimir o que é que está a ver.
00:51:44:13 – 00:51:47:05
Digamos, e sei que nós temos
00:51:47:23 – 00:51:50:07
os escritores e os sons estão
00:51:51:17 – 00:51:57:02
a recorrer se do léxico de linguagem,
que são centenas de milhares de palavras
00:51:57:12 – 00:52:00:14
e não encontram palavras
para aquilo que estão a ver
00:52:00:15 – 00:52:03:21
e, portanto, tentam fazer
lhes uma descrição da situação.
00:52:03:21 – 00:52:06:15
É quase uma, uma epifania, uma intuição.
00:52:07:08 – 00:52:08:24
Exactamente do limite.
00:52:08:24 – 00:52:13:22
Portanto, e já agora, estamos aqui
a falar da informação das máquinas,
00:52:13:22 – 00:52:17:04
a inteligência, a perceção
de que as máquinas são imensamente boas.
00:52:17:12 – 00:52:18:09
Nós já não.
00:52:18:09 – 00:52:19:15
Mas eu imagino que
00:52:19:15 – 00:52:23:15
que que há 50 anos, quando apareceram
as primeiras calculadoras às pessoas
00:52:23:16 – 00:52:29:00
e o pensava que era o demónio que se dizia
não sei quantas centenas de cálculos
00:52:29:00 – 00:52:32:03
por minuto ou qualquer coisa do género
que para nós agora fazemos
00:52:32:24 – 00:52:36:09
milhares de milhões por segundo
e achamos normal.
00:52:36:11 – 00:52:39:06
Mas imagino que que a reação teria sido
00:52:39:15 – 00:52:43:09
quase a mesma quando as pessoas agora veem
que é uma máquina que contabiliza
00:52:44:14 – 00:52:47:03
terabytes e portanto dez,
00:52:48:00 – 00:52:50:07
dez, levantava 12, não é
00:52:52:08 – 00:52:55:04
palavras e que
00:52:55:04 – 00:52:56:03
gera uma estatística.
00:52:56:03 – 00:52:58:12
Depois, com base nesta estatística,
00:52:59:21 – 00:53:03:12
produz sequências de palavras de acordo
as probabilidades
00:53:04:13 – 00:53:05:22
de ocorrência de cada uma.
00:53:05:22 – 00:53:07:02
Achamos isto
00:53:07:17 – 00:53:10:21
que havia,
mas é tão diabólico como era há 100 anos
00:53:11:22 – 00:53:14:00
fazer cálculos a uma velocidade
que o humano
00:53:15:15 – 00:53:16:24
não nunca conseguiria acompanhar.
00:53:16:24 – 00:53:20:11
Então, e com tanta conjugação de dados
objetivos e subjetivos
00:53:20:19 – 00:53:24:01
com realidades que são mensuráveis
e outras que nem tanto,
00:53:24:23 – 00:53:26:12
e eu consigo imaginar
00:53:26:12 – 00:53:30:03
que estas bases de dados sejam francamente
sozinhas de coisas.
00:53:30:13 – 00:53:34:06
Como é que de lá vamos retirar
o que é importante e principalmente,
00:53:34:06 – 00:53:38:14
como é que descobri
mos ambiguidades e contradições.
00:53:38:14 – 00:53:43:16
E agora lembrei me aqui de um bom exemplo
muito básico que é como é que nós mesmo
00:53:44:11 – 00:53:48:01
podemos ir aos registos e notariado
em busca de número de pessoas, certo?
00:53:48:01 – 00:53:49:24
Susana com e Susana com Z.
00:53:49:24 – 00:53:51:16
Certo Isto é uma ambiguidade.
00:53:51:16 – 00:53:54:07
São duas Susana ou é uma mesma Susana?
00:53:54:07 – 00:53:57:06
O que é que nós conseguimos peneirar isto?
Como é que limpamos isto.
00:53:59:10 – 00:54:00:12
É para
00:54:00:24 – 00:54:04:16
tocar, digamos lá, na questão relacionada
com o tema
00:54:05:17 – 00:54:09:18
da atualidade
desses modelos de linguagem e que,
00:54:10:01 – 00:54:14:10
portanto, eles também usam, digamos,
usam a estatística como instrumento.
00:54:14:19 – 00:54:18:19
Nós nas nos motores de busca, como Google.
00:54:18:19 – 00:54:24:01
O Google, quando faz uma pesquisa
e depois apresenta o resultado,
00:54:24:12 – 00:54:27:11
o que o fez foi a realizar
00:54:27:12 – 00:54:29:17
uma base de dados de
00:54:29:18 – 00:54:32:11
muitos milhões de documentos,
milhares de milhões de documentos
00:54:32:23 – 00:54:38:10
e depois ligamos se imagine que aparecia
para uma dada pessoa e este era.
00:54:39:07 – 00:54:43:02
Imaginemos que era, por exemplo, António
Guterres e provavelmente vai
00:54:43:05 – 00:54:44:04
se fizer uma pesquisa
00:54:44:04 – 00:54:48:00
e encontrará seguramente Guterres cristãos
e em 1000 documentos.
00:54:48:09 – 00:54:51:07
Mas como apareceram 10.000 ou 100.000?
00:54:51:13 – 00:54:54:16
Como que o Google
00:54:54:16 – 00:54:55:08
dirá?
00:54:55:16 – 00:54:57:16
Aliás, se eu sei isso não fiz.
00:54:57:16 – 00:55:00:17
Mas se o fizesse agora,
se escrevesse a António Guterres com Z,
00:55:01:05 – 00:55:03:06
eu dizia muito bem.
00:55:03:06 – 00:55:05:15
Vou lhe apresentar os resultados
para António Guterres,
00:55:05:19 – 00:55:07:23
porque eu acho que você está enganado.
00:55:07:23 – 00:55:11:16
Mas se por acaso tiver acerto,
confirme que é Guterres com Z.
00:55:11:23 – 00:55:16:19
Portanto, que que aconteceu
o sistema percebeu, percebeu
00:55:16:19 – 00:55:21:06
que é muito mais frequente que Guterres
com e com Z e imediatamente corrigiu.
00:55:21:12 – 00:55:21:18
Portanto,
00:55:22:18 – 00:55:24:19
estes sistemas fazem esta correção
00:55:24:19 – 00:55:26:19
com base nestas frequências relativas
00:55:28:19 – 00:55:32:00
e partem do princípio
como a informação é ditada colectivamente
00:55:32:01 – 00:55:35:06
por todos nós,
e portanto, se um dado facto
00:55:36:18 – 00:55:39:00
é registado 10.000 vezes
00:55:39:00 – 00:55:41:10
a dizer que a flor é Susana
00:55:41:18 – 00:55:44:06
com z e 100.000 que é com essa,
00:55:44:16 – 00:55:47:01
então eu vai dizer que com essa
e não com Z.
00:55:47:07 – 00:55:51:23
E isso é o aproveitamento da inteligência
coletiva
00:55:52:04 – 00:55:55:08
ou a ditadura da maioria.
00:55:56:01 – 00:56:01:08
Boa pergunta,
porque às vezes dá me jeito saber que
00:56:01:18 – 00:56:05:15
que o Guterres é o Guterres, o Guterres,
às vezes
00:56:06:03 – 00:56:08:20
a diversidade de ser uma outra coisa
qualquer também, por.
00:56:09:04 – 00:56:11:19
Exemplo, que eu estava a dar,
00:56:11:20 – 00:56:15:12
digamos, houve o cuidado de dizer eu
00:56:16:23 – 00:56:19:00
também tenho aqui um Guterres com Z.
00:56:19:00 – 00:56:21:18
Se está à procura do Guterres com Z,
então confirmo que é.
00:56:21:18 – 00:56:26:06
O que é que a maioria das pessoas
procura com esta?
00:56:26:10 – 00:56:30:16
Portanto, isso é, diria que é o que é
o respeito pela minoria.
00:56:30:23 – 00:56:33:09
Não é, portanto, que levar em consideração
00:56:34:01 – 00:56:38:07
que, quando se pesquisa Benfica,
pode haver pessoas que morrem,
00:56:38:07 – 00:56:42:06
não morrem de um bairro de Lisboa que
que não estejam propriamente interessados
00:56:44:13 – 00:56:46:04
no clube de futebol.
00:56:46:04 – 00:56:50:07
E, portanto, isso é isso é positivo.
00:56:50:07 – 00:56:51:05
E se nós fizermos isto
00:56:51:05 – 00:56:54:23
de uma forma responsável,
como agora se diz acautelar, temos,
00:56:55:11 – 00:56:58:11
digamos, essa
00:56:58:18 – 00:57:01:05
esse direito de satisfazer
00:57:01:05 – 00:57:04:03
as necessidades de informação
dos minoritários.
00:57:04:07 – 00:57:09:01
Se me preocupa mais, digamos, a forma como
tudo isto é manipulável e manipulado.
00:57:10:00 – 00:57:11:03
Sem nós percebermos.
00:57:11:03 – 00:57:16:01
Sem nós percebermos, porque se coisas isto
não é, digamos, não é um homem, um voto.
00:57:16:10 – 00:57:18:20
Porque se, pois os três sistemas são
00:57:21:02 – 00:57:23:13
muito não lineares, no sentido em que.
00:57:24:03 – 00:57:28:14
Se o Jorge é seguido por 10.000 pessoas
e seguido por dez,
00:57:28:23 – 00:57:32:07
se o Jorge ser que é Guterres com Z,
00:57:32:13 – 00:57:37:04
essa opinião do Jorge vale 1000 vezes
mais que a minha.
00:57:37:04 – 00:57:39:09
Lá estão os influências desta vida.
00:57:39:09 – 00:57:40:10
É exatamente.
00:57:40:10 – 00:57:43:09
Entretanto,
a Europa criou um sistema e ainda bem
00:57:43:19 – 00:57:45:19
de apresentação dos dados privados.
00:57:46:02 – 00:57:50:07
Também conhecido pela sigla RG
e Regulamento Geral de Protecção de Dados.
00:57:50:07 – 00:57:54:02
E eu olho para isto e digo sim
muitas regras, muita dificuldade
00:57:54:03 – 00:57:55:12
para várias coisas.
00:57:55:12 – 00:57:58:02
Ponha lá aqui a cruzinha
a dizer que autoriza os dados.
00:57:58:11 – 00:57:59:08
Não resolveu o problema
00:57:59:08 – 00:58:02:00
que eu continuou a receber telemarketing
como se não houvesse amanhã.
00:58:02:09 – 00:58:05:08
E todavia, quando eu quero ter acesso
uma informação legítima,
00:58:05:16 – 00:58:08:03
parece que não é desculpa perfeita
que há sobre isso.
00:58:08:03 – 00:58:10:05
Não porque o RPD não permite.
00:58:10:05 – 00:58:12:15
Para um investigador e para um engenheiro?
00:58:12:22 – 00:58:15:02
Como é que se está a dar com este zelo?
00:58:15:09 – 00:58:16:13
Excesso ou
00:58:17:14 – 00:58:20:08
o mal necessário?
00:58:20:08 – 00:58:22:17
Porque o
princípio da protecção de dados à partida
00:58:22:17 – 00:58:27:05
é uma coisa que eu abraço,
consagrando com grande entusiasmo.
00:58:27:24 – 00:58:31:08
Como como, digamos, como utilizador
00:58:32:02 – 00:58:34:03
e como cidadão,
00:58:34:21 – 00:58:37:08
partilho a sua frustração.
00:58:37:08 – 00:58:40:04
Eu sou muito cioso da minha privacidade
e, portanto,
00:58:40:20 – 00:58:44:10
não visite sites que não dão opção de eu
00:58:45:19 – 00:58:49:13
poder escolher
quais são os tratamentos que são feitos
00:58:49:14 – 00:58:53:04
como informação,
mas sim completamente esmagado.
00:58:53:07 – 00:58:57:03
Porque tem que responder 20 vezes por dia
00:58:58:09 – 00:59:00:03
a dizer que não quer.
00:59:00:03 – 00:59:04:02
Imagino que o contacto informal
com as pessoas,
00:59:04:23 – 00:59:07:17
digamos, normais,
que no dia a dia todos os
00:59:08:21 – 00:59:11:09
já decidiram, já já estão, digamos,
00:59:12:19 – 00:59:13:13
vacinados.
00:59:13:13 – 00:59:15:15
É pura e simplesmente dizer
ok, aceitam tudo?
00:59:15:15 – 00:59:18:18
Ok, sim, para saber,
para evitar aquilo que se vê.
00:59:18:18 – 00:59:22:08
Esta fotografia do não sei quantos
a fazer, não sei conter a curiosidade
00:59:22:22 – 00:59:27:09
mata qualquer qualquer desejo
de privacidade que as pessoas e portanto,
00:59:29:01 – 00:59:30:14
nesse aspecto
00:59:31:20 – 00:59:34:07
acho que a lei não teve,
não teve grande sucesso.
00:59:35:17 – 00:59:38:18
Mas, por outro lado,
acho que de alguma forma
00:59:38:19 – 00:59:42:17
tive bastante sucesso
a limitar que se faz dentro
00:59:43:02 – 00:59:45:18
das empresas.
00:59:46:00 – 00:59:49:07
Regulou, no fundo, o uso da informação
por parte das grandes empresas.
00:59:49:22 – 00:59:53:08
Em particular as grandes empresas,
portanto, têm sempre centenas
00:59:53:08 – 00:59:54:18
de milhares de funcionários.
00:59:54:18 – 00:59:56:07
A porque autorregulação isso haverá.
00:59:56:07 – 00:59:59:00
Sempre um dia que uma empresa não compra,
00:59:59:09 – 01:00:02:00
haverá um dia um whistleblower
01:00:02:14 – 01:00:06:18
que alertará o resto da sociedade
e, portanto, é um mecanismo
01:00:07:11 – 01:00:09:24
fortemente dissuasor por fazer
01:00:10:15 – 01:00:12:22
contra tratamentos abusivos de informação.
01:00:13:01 – 01:00:14:12
E ficamos mais atentos todos.
01:00:14:12 – 01:00:16:18
E esse foi o grande mérito da lei.
01:00:16:18 – 01:00:19:04
Eu acho que a nossa,
eu acho que do ponto de vista
01:00:20:09 – 01:00:23:09
da sociedade, o efeito, o efeito da lei
01:00:23:09 – 01:00:26:00
está se a perder com uma vacina
que depois vai perdendo.
01:00:26:10 – 01:00:29:02
E, portanto, eu acho que o meu a referir
que vejo que muita gente
01:00:29:16 – 01:00:31:20
se sente assim, que se implica que sim
a tudo.
01:00:32:09 – 01:00:35:21
Se o ser é só um clique,
porque se é que não tem, não é.
01:00:36:12 – 01:00:40:05
E tem que se desligar dessa coisa
que no fundo e é cansativo
01:00:40:05 – 01:00:42:13
do ponto de vista cognitivo,
ter que dizer que não
01:00:42:13 – 01:00:44:04
e a perceber
o que está dizer que não é sério
01:00:44:04 – 01:00:47:08
e portanto,
as pessoas vão pelo mais simples, não é?
01:00:48:00 – 01:00:49:15
E é sem
01:00:50:16 – 01:00:53:01
chegar a ter o efeito dissuasor que estão.
01:00:53:01 – 01:00:58:14
A questão aqui que que eu acho é que há
duas, dois aspectos que são preocupantes.
01:00:58:20 – 01:00:59:16
Primeiro,
01:01:00:22 – 01:01:05:15
esta lei é só para aqueles que cumprem
a lei, para os que não cumprem a lei,
01:01:06:22 – 01:01:10:22
não tem problema nenhum e, portanto,
dificulta e etc.
01:01:11:06 – 01:01:14:19
Mas, mas,
portanto, continuamos e portanto,
01:01:14:19 – 01:01:18:06
por isso é que provavelmente continuam
a receber emails, etc.
01:01:19:06 – 01:01:22:03
De empresas nas Caraíbas
há coisas de gente que estão fora
01:01:22:03 – 01:01:27:19
da nossa jurisdição e que de uma forma
que nós não sabemos exatamente como,
01:01:27:24 – 01:01:30:18
apenas respeitamos, digamos o seu,
01:01:31:21 – 01:01:35:08
os seus logos,
os seus comportamentos, escolhas
01:01:36:17 – 01:01:40:02
e portanto, essa é uma preocupação
em relação à pergunta inicial.
01:01:40:02 – 01:01:49:02
Tanto que me estão a fazer
falar dos investigadores.
01:01:49:17 – 01:01:53:10
Eu sou presidente da Comissão de Ética
do Instituto Superior Técnico e analiso
01:01:53:19 – 01:01:57:06
presentes dezenas de pedidos
por ano de projetos de investigação.
01:01:57:15 – 01:02:01:02
E não consegui encontrar ninguém
mais capaz para responder à pergunta.
01:02:01:02 – 01:02:03:12
E, portanto, vamos lá ver.
01:02:04:24 – 01:02:05:21
Antes
01:02:06:21 – 01:02:11:01
do RGPS, um investigador que fosse
01:02:12:02 – 01:02:15:15
sensato, que fizesse acordo
a sua atividade
01:02:15:18 – 01:02:18:16
de acordo com os princípios que guiam,
01:02:19:10 – 01:02:21:20
digamos, a antologia da investigação.
01:02:23:13 – 01:02:25:10
Faria tudo
01:02:25:12 – 01:02:28:15
igual mendigo
da mesma maneira que faz depois da lei,
01:02:28:15 – 01:02:31:20
com exceção de de comunicar
01:02:33:03 – 01:02:36:20
ao encarregado de proteção de dados
que está a constituir
01:02:36:20 – 01:02:38:14
uma base de dados, etc.
01:02:38:14 – 01:02:40:13
Portanto, na boa prática, nada, mas.
01:02:40:13 – 01:02:44:10
Boas práticas desde desde os anos 50, 60,
01:02:45:22 – 01:02:49:00
na investigação clínica,
no marketing, etc.
01:02:51:08 – 01:02:53:23
Costuma se dizer que dizemos que a lei
01:02:54:05 – 01:02:59:04
corporiza os comportamentos éticos
que são, digamos que são
01:03:00:13 – 01:03:03:12
consensuais na sociedade
e, portanto, coercivo.
01:03:03:17 – 01:03:08:18
E faz por ou pôr em letra de lei,
01:03:08:18 – 01:03:13:10
no fundo com penalizações,
aquilo que era o comportamento
01:03:14:02 – 01:03:17:03
sensato consensual dos investigadores
01:03:17:03 – 01:03:20:24
antes do LGP.
01:03:22:11 – 01:03:24:02
O que? O que de alguma forma
01:03:25:24 – 01:03:27:00
alguma forma
01:03:27:00 – 01:03:31:06
se passa é que,
01:03:31:06 – 01:03:36:00
em particular
com o advento de algumas tecnologias,
01:03:36:22 – 01:03:39:07
como como as da inteligência artificial
01:03:40:08 – 01:03:44:09
ou o uso para fins diferentes
01:03:44:10 – 01:03:48:06
daquilo com que
que uma tecnologia foi foi desenvolvida
01:03:48:18 – 01:03:52:10
ou que lida com questões como organismos
01:03:52:10 – 01:03:55:23
geneticamente modificados, etc.
01:03:56:16 – 01:04:00:12
Passou a haver também no nosso ordenamento
a obrigatoriedade
01:04:01:02 – 01:04:04:00
de estes projetos
serem terem o acompanhamento
01:04:04:00 – 01:04:07:06
de uma Comissão de Ética, portanto,
que é um grupo que de alguma forma
01:04:07:17 – 01:04:11:16
acompanha, supervisiona os investigadores
e lhes dá,
01:04:12:16 – 01:04:15:14
digamos, digamos, um conforto de si.
01:04:15:16 – 01:04:20:03
Um dia houver questões éticas
que sejam levantadas,
01:04:20:03 – 01:04:24:20
que possam
ter, digamos, o grupo cénico a dizer não.
01:04:24:20 – 01:04:28:21
Mas eles seguiram as boas práticas
e não fizeram isto isoladamente.
01:04:29:05 – 01:04:33:06
No laboratório, toma lembrar de um caso
que deu a volta ao mundo há uns anos,
01:04:33:15 – 01:04:36:15
do investigador chinês
que fez clonagem de humanos
01:04:36:24 – 01:04:39:21
sem a instituição onde eu estava
a trabalhar, a saber e portanto,
01:04:39:21 – 01:04:44:03
e de repente viu se em apuros muito sérios
e, portanto, de alguma forma,
01:04:44:13 – 01:04:48:04
quando, quando as coisas são feitas
de acordo com os procedimentos,
01:04:48:04 – 01:04:53:00
o investigador que está,
digamos, na linha de frente,
01:04:54:06 – 01:04:57:06
pelo menos tem, digamos, seguindo estes
procedimentos.
01:04:57:13 – 01:05:01:11
Tem o apoio institucional
e tem o apoio dos colegas
01:05:01:11 – 01:05:06:03
que foram informados
antecipadamente do que do que iria fazer.
01:05:06:03 – 01:05:11:17
O tratamento que iriam fazer é que
lhes ligamos a informação de que com 60 e.
01:05:12:03 – 01:05:14:06
Isso dá uma transparência ao processo
para fechar.
01:05:14:06 – 01:05:16:05
Os dados, estamos a passar.
01:05:16:05 – 01:05:20:04
O que está a acontecer,
então é que nas nossas organizações
01:05:20:23 – 01:05:22:23
nós estamos a ter
01:05:23:24 – 01:05:28:14
muitas, muitas,
muitas situações em que investigadores
01:05:28:14 – 01:05:32:14
que não tinham estas práticas passaram a
tê los porque passou a ser exigido.
01:05:33:08 – 01:05:37:12
Ok, não quer dizer que eles não fossem
conscienciosos.
01:05:37:19 – 01:05:40:21
Estou a dizer que foram obrigados
a formalizar,
01:05:41:07 – 01:05:43:15
a formalizar todos estes tratamentos.
01:05:43:23 – 01:05:47:00
E puxarmos a história, a nossa conversa.
01:05:47:00 – 01:05:49:22
Quanto tempo falta
para que a inteligência artificial apanhe
01:05:50:00 – 01:05:51:02
a inteligência natural?
01:05:52:16 – 01:05:55:09
Essa é a pergunta do costume
01:05:55:09 – 01:05:57:17
e acho que na comunidade
01:05:57:17 – 01:06:02:00
há uma grande diversidade de opiniões,
desde aqueles que dizem que
01:06:02:11 – 01:06:05:21
que são menos dez anos, outros que
01:06:05:21 – 01:06:08:13
que dizem que são mais 50 anos.
01:06:09:07 – 01:06:10:15
É uma pergunta
01:06:12:01 – 01:06:17:14
que vemos que suscita sempre reflexão.
01:06:18:22 – 01:06:20:21
Eu acho que vai faltar muito, mas
01:06:20:21 – 01:14:41:21
há coisas fundamentais.
Isto é fascinante e assustador