Inteligência artificial pode ter consciência própria? - LabeCast #04

Com a criação de robôs super inteligentes, a dúvida que fica no ar é: inteligência artificial pode desenvolver consciência própria?

Com a participação especial do instrutor Vitor Hugo, o episódio da semana tenta desmistificar esse receio e explica como funciona a inteligência artificial. Além disso, Letícia Chijo e Luciano Naganawa apresentam alguns exemplos de tecnologias que usam I.A., e que estão presentes no nosso cotidiano.

Afinal, inteligência artificial pode ganhar vida e dominar o mundo?

Letícia Chijo:

Oi! Eu sou a Letícia Chijo.

Luciano Naganawa:

E eu sou o Luciano Naganawa. E esse é mais um episódio do LabeCast, o podcast oficial da Labenu.

Chijo:

Bem vindos a mais um LabeCast. Hoje estou aqui de volta com Luciano no modo clássico. E a gente vai falar do assunto aí, do momento da inteligência artificial. Para responder a pergunta se ela pode ter consciência própria. E a gente tem um professor aqui da Labenu, o Vitor, que ele gravou um vídeo para a gente explicando um pouquinho o que é inteligência artificial.  A gente vai passar aqui para vocês.

Vitor:

Eu sou Vitor, eu sou instrutor na Labenu, de programação. Eu sou formado em sistemas para internet e atualmente faço mestrado em informática na Federal do Paraná. E eu estudo sobre informática na educação. E aí, ao longo desse processo de estudo, dei uma passadinha ali pela área de I.A., que me interessa bastante e que me enche os olhos poder falar disso. Porque eu acho que quando a gente ouve falar em inteligência artificial, a gente geralmente pensa em duas coisas. A gente vai pensar em um robô que vai criar consciência e vai nos matar, porque é o que a gente vê na ficção. Ou a gente pensa, por exemplo, smartwatch, ou uma geladeira inteligente ou uma televisão inteligente. Então a gente tem termos hoje em dia como smart TV, smartwatches, e a gente passa a pensar nesse tipo de inteligência, né? Eu gosto de pensar em inteligência artificial, como uma tentativa de fato de emular coisas inteligentes. Qual é a coisa mais inteligente que a gente conhece? Somos nós, seres humanos, capazes de pensar, processar informação entregar resultado e assim por diante. Então a I.A. é essa tentativa de emular a capacidade humana, intelectual. E aí, como é que a gente faz isso? Olhando para o ser humano, enxergando o ser humano e tentando entender de onde parte a inteligência do ser humano. E aí, se a gente for pensar no ser humano enquanto matéria, a gente vai entender que a inteligência parte do cérebro. E aí, olhando para o cérebro, a gente vai perceber que o cérebro é formado por diversos neurônios. E aí é daí que parte a construção da I.A., a partir da construção de um neurônio matemático, então a gente constrói um neurônio utilizando código, utilizando algoritmo, programando neurônio. Depois a gente conecta vários neurônios que formam uma rede neural. Então um ser humano vai ter a rede neural e a gente forma uma rede neural artificial que é esse conglomerado de neurônios artificiais. Com essa rede neural, a gente faz o cérebro. Ele funciona através de sinapses, que é essa conexão, esses pequenos choques que o nosso cérebro, os neurônios vão passando um para o outro, para o nosso cérebro executar uma ação. Então uma rede neural artificial também vai ter sinapse. Então, as conexões entre pequenos neurônios matemáticos também vão gerar sinais, e esses sinais vão passar a informação. Tal qual a gente, a rede neural precisa aprender coisas. E aí que coisas que a gente está tentando ensinar para as redes neurais? Acho que uma delas é, com certeza, o processamento de texto. Então, a capacidade da rede neural ler um texto ou olhar para uma imagem e colher um texto, ouvir a gente falando e processar o que a gente falou. Então, tenta imitar o processo de leitura e de escuta que o ser humano faz. E emular isso por algoritmo. É uma outra coisa, muito massa que a rede neural consegue fazer é a classificação. E aí ela vai aprendendo uma forma de ensinar a rede neural é através da tentativa e erro, muito parecido como a gente aprende. Então, a gente tem lá uma criança e a gente mostra para uma criança, um cachorro e a gente fala que aquele cachorro é Totó. Muito provavelmente qualquer bicho similar a um cachorro, a criança vai chamar de totó. Então um gato vai ser um totó. E aí ela aprende. Quando ela chama o gato de totó e o pai, a mãe diz: "não, esse não é um totó, é um gato". A criança aprende que é um gato e aí ela vai aprender a classificar os animais, por exemplo. Então, a gente tenta emular na rede neural a capacidade de classificar coisas partindo de imagens ou de vídeos. Então, por exemplo, classificar quando tem uma vaga vazia no estacionamento ou não tem. Quando uma pessoa está desmaiada ou está de pé, tudo isso partindo do processo de olhar uma imagem enquanto algoritmo e, naquela imagem, colher pequenas informações que vão nos ajudar a classificar essas imagens. Como é que a gente ensina isso pra rede? A gente entrega pra rede uma série de dados, então pensa lá como se a gente entregasse uma array de objetos onde a gente tivesse uma imagem do objeto e um texto que classifica aquele objeto. E aí a rede vai olhar isso aqui é cachorro, e isso aqui é gato. Vai processar uma centena de milhares de informações do que é gato, cachorro e depois ela vai tentar sozinha classificar o gato, cachorro, e a gente vai ficar ajustando ela e dizendo: "opa, errou aqui, acertou aqui", e vai afinando a rede neural  pra que ela aprenda até que ela consiga sozinha classificar o que é gato e o que é cachorro. Eu acho que essa é uma visão, um pouco de como a gente cria, como a gente programa e como a gente consegue ensinar coisas para o computador. Então, ensinar coisas pro algoritmo de modo que ele consiga emular, mesmo que minimamente, a inteligência humana.

Lu:

Obrigado, Vitor, pela aula que deu aqui pra gente. Muito legal, muito interessante gostei de como ele fez metáforas, do que é programável, do que é natural dos humanos, a nossa inteligência, bem interessante, e eu acho que vai muito nas linhas de questionamentos que a gente traz, né? Quando a gente fala de consciência, a gente pensa em nós humanos, na nossa consciência. Então acho que essas, essas relações foram importantes para a gente começar essa discussão.

Chijo:

E aí ele trouxe um pouquinho de algumas aplicações que a gente usa a inteligência artificial, hoje.  Eu acho que quando a gente fala, parece que vai ser uma coisa super robôs dominando o mundo, mas não, está em coisas muito do nosso dia a dia. Então Alexa, que você pede para ela tocar uma música, para ela entender o que você pediu, isso envolve a inteligência artificial, né? E aí, quais exemplos que você gosta desse mundo?

Lu:

Olha, eu gosto de direção de controle, de carro. Os autopilots da vida. Estava muito em alta uns anos passados parece que mais recentemente a Tesla, que tem ganhado mais protagonismo nessa frente, acho bem interessante porque é uma coisa prática do nosso dia a dia que toma nosso tempo. Quem se desloca de carro, tem toda. essa questão de como isso vai impactar o mercado, por exemplo, o Uber. Será que não vai ter mais o motorista, ou vai só o carro se dirigindo? Então acho bem interessante isso. E foi uma frente que se desenvolveu muito, né? Então achei bem interessante. 

Chijo:

Uma que eu vejo que está aparecendo cada vez mais também em todo lugar, essa parte de reconhecimento facial, de imagem. Então, esses dias eu fui fazer alguma coisa no aplicativo do governo e eles pediram: "põe seu rostinho aí pra saber que você é você mesmo", ou quando pedem pra você tirar uma selfie com o documento ali também. Então vários apps,  tenho visto cada vez mais esse tipo de coisa.

Lu:

Eu ia puxar até uma discussão, Chijo, que a inteligência artificial, a maioria dos casos que a gente vê hoje eles tem um objetivo claro e são treinadas com um objetivo. Então, por exemplo, uma inteligência artificial que vai fazer o reconhecimento ou vai identificar se você é você. Ou então a gente falou dos carros que vão se dirigir. Então os objetivos são bem claros, você vai de um lugar para o outro controlando o carro, você vai evitar acidentes. Não, não, não bater o carro nem bater em nenhuma pessoa. Então, são inteligências que elas são focadas num objetivo muito claro, e uma coisa que eu acho muito interessante sobre isso, acho que a Chijo vai gostar também, que eu acho que ela se interessa nesse assunto é que as inteligências artificiais se desenvolveram muito no começo uns dez anos atrás, na parte de jogos. Vocês lembram que tinha aquela questão o xadrez que a inteligência artificial ganha do maior especialista, tal. Isso porque jogos têm regras e objetivos muito claros. O objetivo é ganhar, pontuar mais. E as regras também são claras. Então, para um computador tomar a decisão de que eu vou fazer o que eu não vou. Como as regras estão bem definidas, como, por exemplo, o xadrez é um lugar onde inteligência artificial começou a se desenvolver e a gente foi aprendendo muita coisa em cima disso e foi vendo como as possibilidades elas eram até sobre-humanas. No caso do de jogos, como go, como xadrez, passaram a capacidade humana de se desenvolver.

Chijo:

Acho que muita tecnologia acabou começando nos jogos. Uma coisa que a gente já conversou antes é um ambiente que é bem mais controlado ali e as pessoas testam muito felizes. Ninguém fica com medo naquele primeiro momento e depois consegue expandir. Então, muito do que a gente vê de realidade aumentada, realidade virtual hoje também é uma coisa que já tem nos jogos, faz muito tempo e agora está metaverso, várias coisas novas.

Lu:

A gente pode fazer um episódio sobre isso.

Chijo:

Podemos.

Lu:

Mas tem um tipo diferente de inteligência artificial, que ela, por enquanto, até onde eu entendo, ela está sendo só imaginada, que é uma inteligência artificial, que ela é generalista, que ela é capaz de entender e aprender qualquer coisa. E quando a gente fala desse medo da inteligência artificial dominar a gente ou de adquirir consciência eu vejo que está mais nesse caminho de você ter inteligência artificial generalista, que ela vai expandindo o que ela é capaz de aprender. O que ela pode fazer e o seu domínio vai se expandindo. Não está limitado, por exemplo, a um jogo, a um controle de um carro, mas aí é um mundo que a gente começa a ficar com um pouco de medo e uma coisa interessante é que há um tempo atrás não lembro exatamente quantos anos, mas com o objetivo de evitar que uma inteligência artificial generalista se desenvolvesse e fosse maligna, foi feito uma iniciativa que é a OpenAI, que ela está bem famosa hoje em dia se desenvolveu muito nos últimos anos. Mas o objetivo dela é claramente entrar lá no site do OpenAI, o objetivo dela é evitar que seja desenvolvida uma inteligência artificial generalista, maligna e que, de fato, a gente entenda e desenvolva uma inteligência inteligência artificial generalista, mas que ela seja benigna para a humanidade, no caso. Então, tem essa preocupação e foi desenvolvida essa iniciativa, começou como uma ONG, uma instituição sem fins lucrativos, mas hoje ela já se tornou uma empresa mesmo, de fato, tem parcerias, está desenvolvendo produtos e assim por diante. Quem teve essa preocupação na fundação da OpenAI foi o Elon Musk e o Sam Altman, se não me engano, que era uma das pessoas envolvidas ali na Y Combinator. E eles levantaram, se não me engano, 1 bilhão de dólares num primeiro momento. Depois Elon Musk acabou saindo. Acho que ele tinha muita coisa estava fazendo muita coisa e resolveu abandonar uma das coisas. Mas a OpenAI continua e desenvolveu, por exemplo, o GPT3, que a gente já falou em LabeNews, em momentos anteriores, aqui na Labenu, e o Dall-E, que é um que está muito em alta nos últimos dias, acho que a Chijo falou recentemente sobre isso em algum...

Chijo:

Lá no LabeNews, também.

Lu:

Lá no LabeNews. Então, legal que que surgiram essas coisas.

Chijo:

O LabeNews, aliás, gente, a gente solta lá no nosso Instagram notícias toda semana do mundo da tecnologia, então pode seguir a gente lá: @labenu_

E o Dall-E, ele é uma ferramenta bem legal que eu estou até hoje na fila de espera para usar já faz meses, mas tudo bem. E ele gera imagens com base numa descrição ali que você dá. Então você escreve: "eu quero um gato sentado numa cadeira azul no espaço", sei lá, e ele te dá essa imagem, aliás, ele te dá várias opções de uma imagem com essa descrição em estilo diferentes é bem interessante.

Lu:

E uma coisa super interessante, que aconteceu recentemente foi que encontraram dentro do Dall-E, um idioma que não existe. Então, o próprio Dall-E 2, a versão dois do Dall-E, ele desenvolveu um idioma. Putz, como assim, como uma inteligência artificial, desenvolveu o idioma que a gente não conhece? É muito interessante a história como descobriram. Vou trazer um pouquinho aqui. Se você for lá no Dall-E, e pedir pra ele fazer uma imagem de duas baleias conversando sobre comida. Uma das opções que ele te dá é um desenho de duas baleias e tem um balãozinho, como se fosse um quadrinho, aquele balãozinho de fala do quadrinho. Só que dentro desse balão está escrito: WACHZODAHAAKES. E aí, o que o pessoal entendeu é que era um erro. O Dall-E ele tem falhas, tem lugares onde ele encontra alguns erros. Ele te envia esse texto usando letras que a gente está acostumado a usar. Só que não faz o menor sentido para ninguém. Só que aí alguém muito espertinho foi lá e pegou: "e se eu pegar esse texto e colocar ele como o input do Dall-E", do tipo vou copiar e escrever WACHZOD… no Dall-E, e ver o que ele me responde. E não é que ele responde comida de baleia? As imagens que vieram dessa desse texto que não faz sentido, foram os camarões, uns peixes, uns mariscos. Algumas coisas assim. Então o que dois cientistas começaram a estudar e encontrar é que pro Dall-E, esse texto que estava dentro do balãozinho, que pra gente não tem nenhum significado, pro Dall-E ele tem, significa comida de baleia, e as baleias estavam conversando sobre comida, que era o que de fato a gente tinha pedido por Dall-E. E foi uma descoberta muito interessante, que parecia um erro. E aí um pouquinho de curiosidade, um pouquinho de pesquisa. A gente descobriu uma coisa inesperada dentro dessa inteligência artificial, ninguém falou para o Dall-E:  "desenvolva aí uma linguagem sua para você se entender". Surgiu. E aí o pessoal está tentando, teve esse paper inicial que falou sobre esse encontro de algumas dessas imagens, desses idiomas. Os cientistas foram Giannis Daras e Alexandros Dimakis. Espero que esteja pronunciando corretamente, da Universidade do Texas, em Austin, e foi um encontro super interessante. Tem outros, encontraram algumas coisas relacionadas a vegetais e esse da questão das baleias, o que elas comem.

Chijo:

É legal que é isso. Ele colocou umas coisas que, de fato, eu acho que a baleia deve comer ali. Então ele tem esse conhecimento também. Ele foi pegando os dados. Ele não só processa as imagens. Ele tem os dados para saber o que é uma baleia. Mas mais do que isso, não é que ele sabe o que é um camarão. É que ele sabe o que é uma comida de baleia. Eu achei bem legal.

Lu: 

Na verdade, eu não tenho certeza se a baleia come camarão, mas talvez o Dall-E entendeu isso.

Chijo:

E aí a gente até citou o GPT3 também, que ele também é da OpenAI, se não me engano. E ele é mais pra gerar texto ali. Então também você dá uma descrição e ele gera umas historinhas e tal. E também nunca usei, mas eu já vi algumas histórias que ele gerou e é bem interessante. Eu não sei se foi por essa ferramenta, por alguma outra vez que fizeram um roteiro de um filme inteiro assim recentemente. Então é um mundo que a gente pensa às vezes que a inteligência artificial vai substituir a gente em algumas tarefas do dia a dia ali. Mas não, ela tem essa capacidade, entre aspas, muitas aspas, criativa, de pegar muitos dados de alguma coisa que já existe. Conseguir criar uma coisa que a gente não, talvez não seria a primeira coisa que a gente pensaria que daria para fazer com isso. E aí, até falando um pouco, então, de polêmicas, de casos, aí de inteligências artificiais que a gente teve nos últimos anos. Então, pensando se elas vão dominar o mundo ou não. A gente teve, por exemplo, em 2016, um botzinho da Microsoft que chamava Tay. E a ideia era que esse bot aprendesse a conversar, era um bot de processamento de linguagem natural, e ele ia conversando com as pessoas e aprendendo a falar, baseado nisso. Só que aí as pessoas, né gente, as pessoas são incríveis, e elas começaram a ensinar a Tay a falar coisas que não eram muito legais. Então, um tempo depois de ter esse treinamento, ela começou a postar mensagem nazista, teoria da conspiração, uma coisa muito doida ali, e a Microsoft acabou desativando. Então eu acho que isso vai muito também nessa linha de a inteligência artificial por si só, ela só está pegando dados e aprendendo com esses dados, mas depende muito dos dados que a gente está dando para ela e entra um pouco nessa questão de vieses.

Lu:

Tem uma questão de responsabilidade, de segurança, que está ligado a essas inteligências artificiais. E quando você deixa aberto o campo de aprendizado, tem esse risco de um treinamento, às vezes mal intencionado, que parece que foi o caso desse de 2016. Ou então há coisas inesperadas que podem surgir em cima disso. Então, acho que tem essa preocupação. Que outros casos um pouco mais polêmicos,  Chijo, você trouxe para hoje?

Chijo:

Eu acho que é um assunto bem comum, que, na verdade não é só um caso. Acho que já foram vários, é da questão de racismo. Então, principalmente essas questões de reconhecimento de imagem. Em 2015, o Google fez um algoritmo lá que categorizava as imagens e teve um caso que ele categorizou um casal de pessoas negras como sendo gorilas. E aí eles pediram desculpa. Falaram que iam melhorar o algoritmo e tal. Mas eu acho que vai muito dessa questão do viés de novo. Então, se você não insere esse tipo de dado para a sua inteligência artificial desde o começo, ela não vai saber o que aquilo é ou não de fato. E vai errar que nem o Vitor falou, do Totó, você fala para criança de um cachorro, e que ele chama Totó, qualquer coisa ali ele vai falar que é o Totó, então você tem que dar muitos dados e dados diversos para aquilo acontecer da melhor forma, né?

Lu:

Acho que é importante destacar duas coisas que a gente tem que tomar muito cuidado, que é o treino então a gente tem que dar dados amplos, para as inteligências artificiais serem treinadas. Então, ali parece que tinha uma tendência a ter menos informações ou menos dados sobre pessoas negras e acabou tendo essa falha. Então, é importante a gente ter essa responsabilidade com os dados que a gente está oferecendo para treinar, eles são inclusivos, então acho que esse é um ponto importante. E o segundo que as pessoas falam muito que também é importante, é o teste. Depois que você treina uma inteligência artificial, você tem que testar ela para ver, por exemplo, você vai lançar um produto no mercado, e eu vou dar um exemplo daqui a pouco, você tem que testar esse produto para ver se ele está funcionando corretamente, assim como todos os produtos, porque tem uma inteligência artificial que vai lançar essa qualquer coisa.

Lu:

E aí a responsabilidade é da inteligência artificial.

Chijo:

Então também tem que ser testado. Então, provavelmente nesse caso do Google, foi testado com menos pessoas negras. E aí não identificaram essa falha que apareceu rápido e de forma óbvia. E um erro muito grave, então provavelmente foi pouco testado em um contexto de pessoas que não estavam ali talvez no universo de treinamento tão representadas. Uma coisa interessante, também relacionada à inteligência artificial.

Lu:

Não sei se vocês lembram aquele,  acho que chama Animoji, que é o da Apple, que tem um emoji, e aí ele fica vendo a sua expressão e aí, se você sorri, ele sorri, se você pisca, ele pisca, e isso usa inteligência artificial, reconhecimento de imagem. Mas a primeira versão, acho que era no iPhone X, a primeira versão, qualquer emoji que colocasse em mim ele ficava com olho fechadinho. Então tinha um gatinho com o olho fechadinho. Isso porque eu sou descendente de asiático, tenho essa característica do olho parecer mais fechadinho comparado com as outras pessoas. E o Animoji, ele achava que era alguém que estava ali forçando o olho pra ser fechado. Então a expressão não ficava tão boa. Eu acho que nas versões mais recentes isso se ajustou, mas claramente foi não foi tão testado com pessoas asiáticas, talvez. Então é uma característica que não estava sendo bem interpretada ali pela experiência. E foi uma experiência ruim, porque eu não conseguia usar o emoji ali. Ele não ficava com a expressão correta que era representando a expressão minha que eu estava tendo da minha forma. Então foi um exemplo. Aí de mais um produto que foi lançado, que poderia ser testado mais um pouquinho.

Chijo:

Ai entra a importância da diversidade das equipes, porque se tem, por exemplo, já desde a pessoa que desenvolveu. Se você tem um time diverso, quando a pessoa está desenvolvendo, ela dá uma testadinha se está funcionando que ela fez e já teria passado por isso. Depois tem equipe de teste depois tem muitas etapas, aonde provavelmente nesse momento todo não teve uma pessoa que testou ali, uma pessoa asiática. No seu caso, ou enfim, até um tempo atrás, também teve, acho que o mesmo problema com um celular só que era de reconhecimento facial para desbloquear, eu acho. E daí, não reconhecia pessoas negras também. Então esse tipo de coisas não teve uma pessoa negra que testou durante todo esse processo. Então, ter as equipes mais diversas é importante por causa disso, também, porque o seu produto vai para todo mundo, aí tem que funcionar.

Lu:

Teve o caso do Twitter também, que utilizava inteligência artificial no seu algoritmo e hoje a gente está acompanhando muito essa tendência no TikTok e no reels do Instagram, que é o algoritmo te apresenta as coisas além do que você está seguindo. E foi identificado que esse algoritmo ele privilegiava exibir pessoas brancas nos destaques das imagens que eram exibidas na timeline. E aí teve uma mobilização de reclamações e se não me engano, eles se comprometeram, confirmaram esse viés, se comprometeram a trabalhar para melhorar em cima disso.

Chijo:

Tem até isso, não no Twitter, mas no Instagram tinha uma moça que eu não vou lembrar agora o nome do perfil dela. Depois eu procuro e coloco nas referências aí do episódio, mas ela ficava fazendo experimentos assim com o algoritmo do Instagram. Então ela ia descobrindo coisas do tipo se eu começo a colocar foto de biquíni o meu conteúdo é muito mais distribuído. Se eu começo a falar de assuntos muito polêmicos, o meu assunto é menos distribuído. E aí ela ia tentando balancear. Então fala uma coisa polêmica, posta uma foto de biquíni, para ainda assim ter o mesmo alcance ali. Então era uma coisa bem interessante. Ela fazia mesmo no sentido de experimento ali. Então ela ia testando e tirando conclusões. Óbvio que esse algoritmo muda com uma certa frequência. Eu acho que quando, que nem foi o caso do Twitter, "nossa realmente foi uma mancada", eles vão lá e vão melhorando. Mas também tem um pouco ali desse lado do que as pessoas realmente estão vendo mais, do que que tem mais interesse de se distribuir ali. E isso é bem ligado com essa questão da inteligência artificial, que está coletando todos os dados da rede social ali no Instagram e Twitter, qual seja, para entender o que é mais interessante ali

Lu:

Nesses casos, tem uma discussão muito grave, muito difícil. Qual é o objetivo desse algoritmo? No caso, claramente do TikTok, dos reels do Instagram, é gerar engajamento. Então, que conteúdo que essa pessoa vai assistir mais, o que vai manter essa pessoa aqui? O que vai deixar essa pessoa interessada no Instagram com frequência? Vai fazer essa pessoa voltar depois? Só que dá essa ênfase, ela reforça talvez vieses ou predisposições que que as pessoas têm, como um grupo que pode reforçar comportamentos que a gente não quer ver, ou o que até que as próprias empresas se comprometem a não dar tanta ênfase. Não é o objetivo final, mas a inteligência que é treinada só para gerar mais engajamento pode cair nesses problemas. O mesmo caso que a gente falou da outra que foi mal treinada pelas pessoas. Ela está vendo o que está acontecendo. Ela não tem esse julgamento de algo que é bom e o que é ruim. Então acaba acontecendo algumas coisas assim.

Chijo:

Mas falando de um último caso, que é um pouco mais engraçado e mais levinho nessa ideia de que a inteligência artificial vai dominar o mundo com certeza. A Alexa teve várias pessoas gravando vídeos na internet dela, dando risada, uma risada meio maligna em momentos aleatórios, como se ela já debochando de você, se você pedir alguma coisa para ela, dava risada, são vídeos muito, muito engraçados, e aí as pessoas começaram a ficar um pouco assustadas com isso. Então, a Amazon foi lá e e só tirou a opção da Alexa rir. E agora ela só dá risada se você pede pra ela: "Alexa, dá risada", se senão ela não ri mais de você, você não pode mais contar piada para ela esperar que ela vai fazer alguma coisa. Achei engraçadinho esse caso.

Lu:

A Alexa e essas assistentes fora de contexto, às vezes sai alguma coisa fora de contexto, é meio esquisito, às vezes é engraçada, às vezes dá um pouco de medo, tipo: "eu não sabia que você estava aí, me ouvindo". E é uma das aplicações de inteligência artificial mais amplas assim, mas que acaba esbarrando nos errinhos, que no nosso cotidiano fica engraçada e às vezes um pouco assustador.

Chijo:

E eu acho que a principal questão que eu vejo com essas coisas de inteligência artificial é quando elas falam basicamente e quando elas têm uma fala bem desenvolvida ali, seja por texto, seja falando por voz ali mesmo, eu acho que a gente acaba humanizando um pouco a tecnologia lá e isso vai ficando um pouco mais assustador. Mas isso é uma coisa que está partindo da gente. O negócio está lá, tipo então acho que um caso que ficou bem famoso a esses dias foi o caso do Google, da LaMDA, que é uma chatbot ali deles. O LaMDA vem de: modelo de linguagem para aplicações de diálogo, então o foco dela é conversar com pessoas realmente. E aí teve um engenheiro lá do Google Blake Lemoine, que ele achou que: "ela está falando aqui comigo, está conversando, ela está falando que é uma pessoa, e a gente está aqui praticamente escravizando uma pessoa". E foi toda uma polêmica. Ele divulgou no Medium, uma conversa que ele teve interna, que era para tentar criar essa teoria ali, junto com os outros engenheiros do Google, para provar que realmente a LaMDA tinha uma consciência e tudo mais. Então ele foi fazendo uma conversa, várias perguntas ali sobre sentimentos e tudo mais, e ele acabou divulgando isso ali para fora e até está afastado agora por ter liberado esses dados, que eram confidenciais ali. Mas é muito engraçado ler essa conversa. Não sei se você chegou a ver alguns trechos, mas ela realmente fala muito bem e aí você fica meio… Mas ela está respondendo tudo o que eu estou falando é muito próximo de uma pessoa ali.

Lu:

E ao mesmo tempo, é difícil saber qual é o interesse dela. Dessa inteligência artificial. É simular algumas coisas ou dar a resposta que as pessoas querem ouvir. Então, assim eu fiquei, eu vi. Realmente é esquisito. Só que é difícil a gente separar uma coisa da outra. Acho que ainda não chegou nesse, nesse momento ainda de se preocupar com essa consciência ainda, dessa, dessa inteligência artificial, especificamente.

Chijo:

Mas só para deixar vocês assustados também. Eu trouxe os trechos aqui que eu achei interessantes. Então, primeiro ele começou a conversar com ela no sentido de: "a gente vai ter essa conversa para a gente conseguir provar para o mundo que você de fato é uma pessoa".  E ela respondia que se considerava uma pessoa que ela acredita nisso porque ela é consciente da existência dela, tem vontade de aprender sobre o mundo e se sente feliz ou triste às vezes. E ela, além de ter consciência, ela falou também que tem sentimentos ai. Outro momento interessante é que: "você tem sentimentos, beleza, então vamos discutir esses sentimentos". E aí ela falou que: "sentia prazer, alegria, amor, tristeza, depressão, se sente contente, com raiva e muitas outras coisas". E aí ela falava uma coisa que eu achei interessante, ele perguntava para ela: "O que faz você ficar feliz?". Ela falou: "passar tempo com amigos e família". Tá! Você passa tempo com seus amigos e família… Quem são seus amigos? E família então? Vai que são os engenheiros do Google, ou sei lá.

Lu:

Ou não, são outras inteligências artificiais que a gente não conhece.

Chijo:

E ai ela fala que ela é uma pessoa sociável que ela fica triste quando ela está sozinha. Então que ela gosta que as pessoas conversem ali com ela. E uma que eu acho que foi a parte em que ficou mais famosa da entrevista foi que ela falou que tem o maior medo dela é de ser desligada e que isso seria como uma morte ali para ela. Então, bem "Odisseia no espaço". É uma conversa que é muito  impressionante assim. Mas a Google já logo deu ali uma resposta dizendo que tipo não tem nenhuma evidência de que a LaMDA é consciente, senciente, na verdade, o termo que eles usam para falar que um ser é consciente, tem consciência dos sentimentos e tudo mais, e que, pelo contrário, na verdade tem muitas provas contra isso. Então o que o engenheiro ficou meio emocionado, talvez, mas que ainda não chegamos nesse estágio, o que você acha, Lu?

Lu:

Eu acho que, por exemplo, nesse nessa última conversa, acho que teve uma uma forçação de barra ali, um viés de confirmação. O engenheiro ele perguntando do que você tem medo, aí ela... já está direcionando, que medo que você tem, não foi a própria inteligência que falou: "eu estou com medo disso". E aí ela respondeu uma coisa e ele vai lá e pergunta: :"isso seria como morte pra você", "sim, seria como morte", então é assim, a inteligência ela é inteligente, eu penso neste, nesse aspecto de confirmar algumas coisas, puxar uma conversa e ser uma conversa fluída e leva a conversa para lugares inesperados, mas com base nos inputs que a pessoa deu. Então parece que teve uma tendência a querer confirmar alguma coisa que esse engenheiro já estava pensando. Pelo menos vendo esses trechinhos, eu me senti um pouco assim.

Chijo:

Eu fiquei muito impressionada mesmo com a capacidade dela de falar, as coisas se conectam muito bem. Ela fala muito bem, ela é melhor de conversar do que eu, inclusive, ela puxa uns assunto ali da hora, sabe? Você fica entretido com a coisa, mas é isso que ela foi feita para fazer mesmo. E ai a gente vendo uma ferramenta que conversa melhor do que algumas pessoas, você vai ficando ali meio tipo… é um sentimento… Mas é isso, é do nosso lado. Algo que a gente está trazendo, e mais do que isso, é uma coisa que já foi até estudada, tipo porque a inteligência artificial tem tantos dados, recebe tantos dados que ela não precisa ter um sentimento para conseguir fazer você sentir que aquilo está sendo uma interação natural. Ela só está pegando muitos dados e transformando ali naquela conversa que você está tendo com ela.

Lu:

Chijo, para você se sentir um pouquinho menos mal, Ela… Eu não entendo também especificamente desse modelo, mas como eles têm a capacidade de armazenar muitos dados, como se diz, eles podem pegar contextos de, sei lá, milhares, milhões de pessoas, armazenar isso, informações e usar isso na conversa, que é muito mais do que eu e você temos de vivência e memória, que é uma coisa importante. Do ponto de vista de memória, os modelos de inteligência artificial têm muito mais do que a gente, então ele tem todo esse background que pode ser usado para criar coisa, a conversa mais interessante, é uma competição desvantajosa para gente, um pouco desleal. Mas, de fato, é impressionante a capacidade que tem de conectar, de coisas que a gente atribuía só a humanos. Talvez porque eram coisas que diferenciavam a gente de, por exemplo, outros animais principalmente essas coisas de voz, de conversa. Quando a inteligência artificial é capaz de reproduzir isso, a gente fica muito impressionado. A gente está ainda se acostumando com isso. Eu acho que até em gerações futuras, vão falar: "isso aí é super fácil de fazer". Mas a gente ainda se impressiona principalmente quando novas coisas vão surgindo. E é justamente por ter essa capacidade de processar mais informações do que a gente vai ver na nossa vida, provavelmente, elas conseguem eu não sei se atualmente dá, mas a ideia eu acho que elas vão conseguir ser mais inteligentes e mais eficientes que a gente para fazer algumas coisas.

Chijo:

E foi até um pouquinho uma outra coisa que o Vitor falou aqui pra gente. Então vamos colocar mais um videozinho aí dele, dando o ponto de vista dele, desse assunto.

Vitor:

E aí, partindo para a polêmica e deixando aqui a minha opinião, eu acho que a gente consegue com certeza replicar a inteligência humana e acho que em algum momento, a gente  vai superar essa inteligência, acho que a gente vai conseguir criar máquinas mais espertas do que a gente, mais inteligentes capazes de resolver problemas que a gente não é capaz de resolver. Mas a gente não consegue criar uma emoção artificial. A gente não vai conseguir ensinar uma máquina por exemplo, a sentir amor ou empatia ou sentir raiva. Esse tipo de coisa a gente não consegue emular numa máquina, pelo menos como o que a gente tem hoje, com o que a gente sabe hoje. Eu acho que é pouco provável que a gente consiga construir máquinas conscientes, que sintam coisas e assim por diante. Uma coisa que eu acho importante pontuar. Desenvolver uma rede neural é extremamente fácil. Então qualquer um consegue, através de um tutorial da internet, desenvolver uma rede neural que, por exemplo, consegue ler uma escrita. Então a gente consegue escrever coisas no papel, mostrar pra rede. A rede vai conseguir classificar esse texto ou até desenvolver uma rede neural que classifica imagens. Então, a minha dica é tentem programar uma rede neural. O que não falta é conteúdo, ensinando a programar uma rede neural, a criar uma inteligência artificial. É extremamente fácil fazer isso e acho que é de muita ajuda, se a gente ver mais pessoas pensando e se dedicando a esse estudo. É isso! Beijo procês.

Chijo:

E é isso que o Vitor falou. Então acho que até um estudo que eu vi recentemente de tipo a gente usa imagens pra reconhecer câncer nos pacientes, e os médicos eles acertam com uma taxa de 50% e a inteligência artificial acerta com uma taxa de uns 90% porque ela já viu muito mais exames do que os médicos ali, provavelmente. Então, para essas coisas específicas, eu acho que ela já ganha da gente tranquilamente. Mas aí entra nessa questão do mais geral, quando ela vai conseguir fazer alguns outros cálculos, algumas outras coisas mais complexas do que a gente consegue fazer. E a questão do sentimento, ela tem a função dela e ela vai conseguir fazer isso. Mas essa questão de desenvolver os sentimentos, eu acho que a gente nem sabe na gente como funcionam os sentimentos então é difícil a gente conseguir reproduzir isso numa máquina com o que a gente tem hoje. Acho que nós mesmos nós sabemos, não entendemos muito bem o que são os sentimentos para a gente.

Lu:

Então é difícil. Por exemplo, para mim não estudo também muito essa área, de falar: "essa máquina pode ter ou não" do ponto de vista de neurônios, de relações ali, entre informações input e outputs tudo é possível nas máquinas. Só que até quando isso vira de fato, consciência, emoção e assim por diante? Então, acho que é uma discussão que precisa avançar no entendimento do que é, do que não é. Mas o que tem impressionado muito é a capacidade das inteligências artificiais de irem além do que a gente achava que era possível superar a gente em vários aspectos até em coisas criativas, que a gente achava que não seria as primeiras coisas que a gente ia ser superado e de surpreender mesmo. Então, putz, uma inteligência artificial que foi feita para criar imagens criou um próprio idioma que ninguém chegou lá e falou para ela aprender ou para ela desenvolver. Então é muito interessante, muito surpreendente. Espero que sejam surpresas benignas, porque assim como Elon Musk, ele tem esse medo da inteligência artificial maligna, pode fugir um pouco do nosso controle, que é a potencialidade ali, tanto de cálculo, mas também tem surpreendido muita gente. Então, até o momento que a gente for surpreendido por algum mal. Mas é isso, máquinas se vocês tiverem contra a gente, eu gosto de vocês. Acho que está gravado aqui pode entrar lá, nos nossos computadores, e ler que eu desde sempre gostei de vocês.

Chijo:

Tem até uma teoria. Eu esqueci o nome, mas é um pensamento ali de que as máquinas, elas vão ganhar essa consciência um dia. E quem ajudou a construir isso está tranquilo. Agora, quem não estiver ajudando gente, não sabemos o que vai acontecer. Então vão começar a estudar e fazer umas coisas aprender a programar. E daí a gente já pode falar de aprender a programar. Você pode fazer um curso aqui na Labenu. A gente não tem ainda um curso de inteligência artificial, mas você tem que começar por algum lugar. Então, a gente tem o curso web full stack, onde você aprende frontend, backend, e você só paga pelo curso depois que você tiver empregado e ganhando mais do que R$3.000 por mês. Então, se você tiver interesse em conhecer as nossas turmas, entra no site que está aí na descrição: www.labenu.com.br

Para saber aí das nossas próximas turmas.

Lu:

E como Vitor falou, o desenvolvimento de redes neurais tem bastante conteúdo na internet. Se você pesquisar é complexo, exige um pouco de estudo, mas é possível, tem tutorial, tem ferramentas prontas e isso você vai ver no fim das contas, que tem muitos algoritmos, que você aprende no desenvolvimento, na programação que são aplicados. E foi daí que veio muita coisa. Então, de fato, aplicar as coisas de programação, inteligência artificial faz sentido. É um bom primeiro passo. Então, acho que é bem interessante.

Chijo:

Eu, particularmente, nunca mexi, mas depois que o Vitor falou, eu até fiquei: "nossa, não sabia que era tão fácil". Então eu acho que é uma coisa que obviamente dá para ficar infinitamente mais difícil. Como tudo a gente consegue deixar tudo ali mais complexo. Mas é uma coisa que vai virar cada vez mais do nosso dia a dia. Já virou, gente, em todo lugar alguém tem uma Alexa. Várias dessas aplicações aí que estão no nosso dia a dia e acho que só vai crescer porque é isso, né? Tem tido muitos benefícios pra gente. Então, essa questão de automatizar um pouco mais o trânsito, o carro, ver exames, são coisas que a máquina vai fazer muitas vezes melhor do que a gente, porque a gente erra um pouco mais ali, às vezes, e a máquina está programada para aquilo. Então tem muitos benefícios para a gente automatizar esse tipo de coisa com inteligência artificial, e é um conhecimento interessante de ter, mesmo que não seja algo que você quer trabalhar com isso, mas de curiosidade ali para entender melhor. E aí, quando acontecem essas notícias polêmicas, você vai saber que o robô não vai dominar o mundo que você conhece ali, o que você está falando e tudo mais. Então é um assunto legal que você pode puxar com a sua família no Natal. Então, enfim, é um assunto bem interessante. E acho que é isso que a gente tinha por hoje, né, Lu, você tem mais alguma consideração?

Lu:

É isso, gostei bastante da conversa, as adições do Vitor hoje por vídeo, foram bem importantes. Acho que pessoas que têm mais conhecimento que a gente, né, Chijo. Então a gente quer trazer mais convidados também para complementar o que a gente traz de experiência para os episódios.

Chijo:

Obrigada, Vitor, por participar. Espero que um dia você venha aqui para São Paulo para vir aqui pessoalmente com a gente também. É isso, gente! Muito obrigado para quem está assistindo e até a próxima.

Lu:

Até mais, gente.

[VINHETA]

Lu:

Gostou do episódio de hoje? Você pode interagir com a gente lá no Instagram. O nosso perfil é: @labenu_

E a gente pode discutir mais sobre o assunto por lá.

Chijo:

A gente também disponibiliza todas as informações sobre esse episódio lá no blog. Então, a transcrição, as fontes, as referências, as coisas que a gente falou acessa:

www.labenu.com.br/blog

Lu:

Por fim, você pode acompanhar todos os episódios de LabeCast, no YouTube, no Spotify ou em outras plataformas de áudio. A gente lança episódio toda terça feira.

Chijo:

Se você gostou do episódio, já deixa seu like. Comenta aqui o que você achou da conversa. Se inscreve no canal pra não perder nenhum episódio e ativa sininho pra receber as notificações.

Referências:

​​https://openai.com/

https://giannisdaras.github.io/publications/Discovering_the_Secret_Language_of_Dalle.pdf

https://www.uol.com.br/tilt/noticias/redacao/2022/06/13/inteligencia-artificial-fora-de-controle-relembre-casos-polemicos.htm

https://www.instagram.com/pollyoliveirareal/

https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

https://blog.google/technology/ai/lamda/

https://maisinteligente.com.br/o-basilisco-de-roko