Artigos de menuUltimas notícias

Como Inteligência Artificial e a captura de dados mantém o poder entre as grandes potências?

Os avanços desmedidos da inteligência artificial tem criado celeumas na comunidade científica e uma série de questionamentos entre usuários das redes. Quais são os limites do uso das novas tecnologias? Como garantir um ambiente virtual saudável? E como conscientizar e distanciar as pessoas de notícias falsas ou que propaguem desinformação?

“O risco maior não é o ChatGPT descontrolado. O risco é ele estar concentrado no capital da Microsoft”

Segundo Deivison Faustino, professor do programa de pós-graduação em serviço social e políticas sociais da Universidade Federal de São Paulo (Unifesp), para além de todos os questionamentos apontados acima, há um elemento que não pode ser dissociado desse avanço: o colonialismo digital.

O termo é o foco de seu novo livro, Colonialismo digital: por uma crítica hacker-fanoniana, lançado no último mês, pela editora Boitempo. A publicação relaciona a obra do psicanalista e filósofo da Martinica, Frantz Fanon, que tratou de maneira especial da independência de países do continente africano dominados pelo império europeu, com a nova onda de captura de dados e aglomeração de capitais proporcionada pelas novas tecnologias.

Para Faustino, ainda que a tecnologia avance e se torne acessível para o maior número possível de pessoas, ela ainda atenderá apenas aos interesses de uma pequena parcela de empresas, que dominam os meios de produção tecnológicos. 

“O colonialismo digital é um fenômeno que vem sendo observado na dinâmica do capitalismo contemporâneo, que passa por uma alta informatização e automação dos processos produtivos inerentes ao capitalismo desde o início”, explica Faustino. 

“Se lá no século XIX, por exemplo, a gente tinha a Inglaterra como grande pólo dinâmico da economia industrial e uma exportação de capitais a partir do telégrafo, das linhas férreas, hoje a gente tem um processo muito parecido com a exportação de capitais a partir da fibra ótica, a partir da conquista do espaço por empresas privadas para poder distribuir sinal de internet”, completa o professor.

Faustino é o convidado desta semana no BDF Entrevista e, na conversa, explica que a carta assinada por cientistas e empresas de tecnologia, pedindo uma trégua no avanço do uso da inteligência artificial por conta de um suposto descontrole da tecnologia é, na verdade, um descompasso da corrida, em que grande parte das big techs, ficou para trás.

“É verdade, o resultado é imprevisível e isso é assustador. Mas o processo que constrói esse resultado é planejado para ser assim, então, ele pode ser ponderado, é uma competição capitalista. Quando surge o ChatGPT 3, depois o 3.5, depois o 4, as empresas concorrentes que também estavam na corrida, propõem parar um pouco a corrida, não porque elas estão pensando no bem da humanidade. Elas propõem parar porque elas estão perdendo a corrida. É a ideia do anticristo, do [Friedrich] Nietzsche”. 

O problema, segundo Faustino, talvez não seja o uso da tecnologia da inteligência artificial generativa, mas que ela esteja subordinada ao capital, “porque aí ela entra num controle que não é o controle das necessidades humanas, não é o interesse coletivo, mas é o interesse privado”. 

Confira a entrevista na íntegra:

Brasil de Fato: Você está lançando pela Boitempo o livro “Colonialismo digital: por uma crítica hacker-fanoniana”, parabéns pela obra. Queria começar o papo falando sobre o foco do teu livro, que é como o racismo se reproduz também no mundo digital. O que é esse colonialismo digital?

Deivison Faustino: Em primeiro lugar, o colonialismo digital é um fenômeno que vem sendo observado na dinâmica do capitalismo contemporâneo, que passa, por um lado, por uma alta informatização e automação dos processos produtivos. Mas, ao mesmo tempo, isso é inerente ao capitalismo desde o início. 

O que a gente percebe nessa fase do capitalismo é que essa automação ganha novos níveis e ela traz grandes consequências para a sociedade. Uma delas – e isso que dá o título para o nosso livro, a ideia de um colonialismo digital – parte da ideia de tentar dar conta de uma certa atualização, de uma tendência bastante antiga, que é de uma alta concentração de poder industrial, empresarial, financeiro e tecnológico nas mãos de poucas empresas, concentradas em três ou quatro países e, ao mesmo tempo, uma certa partilha do restante do mundo por parte dessas empresas.

“E se eu saio da igreja e vou no motel, eu saio do motel e vou no candomblé. Se eu saio do candomblé e vou no shopping, o Google vai registrar um padrão de localização, mas também um padrão de consumo, porque esse dado é cruzado com meu acesso, com meu histórico de acesso à internet.”

Então, se lá no século XIX, por exemplo, a gente tinha a Inglaterra como grande pólo dinâmico da economia industrial e, ao mesmo tempo, uma exportação de capitais a partir do telégrafo, das linhas férreas, hoje a gente tem um processo muito parecido com a exportação de capitais a partir da fibra ótica, a partir da conquista do espaço por empresas privadas para poder distribuir sinal de internet.

Mas, ao mesmo tempo, essa distribuição atualiza uma certa divisão internacional do trabalho. Ela atualiza uma certa desigualdade entre nações, porque, por um lado, a gente tem nações com tecnologia altamente sofisticada cujas empresas que controlam essas tecnologias, pegando como exemplo o Vale do Silício, acabam tendo controle do mundo todo. Hoje existem poucos processos produtivos que não são informatizados e que não passam pelo processo, por exemplo, da automação ou da inteligência artificial. 

Ao mesmo tempo, o resto do mundo passa a ser disputado e dividido por essas empresas apenas como fornecedores de matéria prima. Então, se pensar no caso das tecnologias, o lixo do uso das baterias de energia renovável, o coltan utilizado nos nossos aparelhos celulares e o próprio ouro, que está no componente eletrônico da maior parte das tecnologias. Por um lado, você tem uma atualização da velha partilha do mundo, da velha partilha imperialista, dividindo o mundo entre grandes potências e países que são meros fornecedores de matéria prima, no caso, as matérias primas básicas para o que a gente chama de hardware. 

Mais recentemente, no entanto, surge uma nova matéria prima, que são os dados. E essa matéria prima também passa a ser disputada por essas poucas e grandes empresas. Então, o colonialismo digital, num primeiro momento, é a expressão dessa alta concentração do poder econômico e, em consequência, político e simbólico na mão de poucas empresas e, ao mesmo tempo, uma partilha do mundo entre elas. 

Esse colonialismo digital vai se manifestando também a partir de outros desdobramentos. Uma vez que os dados, nossos dados comuns, quando eu coloco um endereço no Google para poder ir na igreja, o Google registra onde eu estou indo. E esse registro fica no banco de dados. E se eu saio da igreja e vou no motel, eu saio do motel e vou no candomblé. Se eu saio do candomblé e vou no shopping, o Google vai registrar um padrão de localização, mas também um padrão de consumo, porque esse dado é cruzado com meu acesso, com meu histórico de acesso à internet.

“A empresa pode saber mais de mim do que eu mesmo, e ela pode, com isso, saber qual o melhor momento para me oferecer o produto, qual o momento  em que eu estou mais vulnerável, mais suscetível a comprar e, de repente, ela pode influenciar na minha decisão e não apenas me oferecer uma alternativa.”

E, num primeiro momento, esses dados são utilizados para direcionar propaganda, por exemplo, para o meu perfil. É uma propaganda direcionada, que tem maior chance [de engajar], maior apelo, porque agora a propaganda vai ser baseada no meu perfil, no meu histórico de acessos, nos lugares que eu passei. Então a gente acaba sendo vítima de um processo de extração constante, sistemático de dados, a exemplo da Google. Mas a Uber coleta dados, a Meta, o Facebook, o Instagram.

Todas essas empresas que oferecem aplicativos gratuitos, e até as que oferecem aplicativos pagos, as casas inteligentes, os dispositivos conectados, não só oferecem serviços, mas eles vão coletando dados que permitem direcionar propaganda. De certa maneira eles atualizam as formas de controle, porque não é só o processo de direcionamento de propaganda que a gente visualiza, mas é também o processo de predição de comportamento.

À medida em que eu vou oferecendo um perfil psicológico, de saúde, a respeito da minha existência para a empresa, a empresa pode saber mais de mim do que eu mesmo, e ela pode, com isso, saber qual o melhor momento para me oferecer o produto, qual o momento  em que eu estou mais vulnerável, mais suscetível a comprar e, de repente, ela pode influenciar na minha decisão e não apenas me oferecer uma alternativa. A gente chama isso de predição de comportamento.

Para além dessas grandes corporações, há também uma colonização de territórios. Taiwan, por exemplo, é um território colonizado para criar tecnologia. Os Estados Unidos entenderam que as fábricas de microchips eram muito dispendiosas, exigiam sistemas de higiene, etc, que eram muito onerosos, e terceirizaram esse serviço. Hoje, Taiwan virou uma potência, mas uma potência colonizada…

Exato. Acho que o Taiwan é um exemplo muito interessante do capitalismo contemporâneo, porque é diferente do século XX, pelo menos até a primeira metade do século XX. A competição e a divisão internacional do trabalho se pautavam por uma certa nacionalização dos mercados e isso se alterou radicalmente com a crise da década de 1970, 1960, e com a chamada por [István] Mészáros de crise estrutural do capital, que é pautada por uma internacionalização do capital. 

Isso redefine a disputa capitalista e redefine também o lugar das fronteiras nacionais. E isso é muito visível no caso de Taiwan, que é historicamente um território associado à China. Mas aí, por questões muito conjunturais, ela é considerada um território autônomo à China. Por questões também sociais, históricas, que tem a ver com o investimento em tecnologia, que no final do século XX aquela região é eleita para receber fartos investimentos do capital internacional dos Estados Unidos, da Bélgica e outros países da Europa, para desenvolver tecnologia. 

“Os Estados Unidos defensores da liberdade, do liberalismo, do estado mínimo, criam o protecionismo para impedir que essa tecnologia de Taiwan esteja sob o controle chinês.”

Nesse período, o que aconteceu é que nós adentramos a terceira revolução técnico científica, que vai colocar a tecnologia no centro dos processos produtivos, vai ampliar as formas de exploração, ampliar a expulsão de trabalhadores dos processos produtivos e automatizar intensamente os processos produtivos. Mas, no contexto da quarta revolução técnico científica, chamada Web.4, a gente tem a intensificação desse processo a partir da elevação da automação a um outro patamar.

Isso é visível na inteligência artificial, nas redes neurais profundas e, hoje, a gente está vendo todo o impacto do ChatGPT. Esse é um exemplo, mas a gente pode pensar na importância que a digitalização passa a ter no conjunto do processo produtivo. A gente alcança um outro patamar e nada disso se faz sem os nanocondutores. Eles são, de certa forma, o coração do processo digital, que é onde as informações são processadas. E é em Taiwan que está a fábrica mais cara do mundo, a fábrica mais valiosa do mundo, a TSMC, a Taiwan Semicondutor Manufacturing Company, que é a fábrica que produz a tecnologia mais avançada em nanocondutores.

Ela está em Taiwan, esse território meio chinês, meio autônomo e isso significa que se essa fábrica quebra hoje, para também, no mundo inteiro, a produção de automóvel, a produção de computadores, a produção de celulares, a produção de avião, a produção de máquinas para fazer todas as outras coisas no setor alimentício, porque quase tudo usa nanocondutores, mas ninguém domina essa tecnologia. Essa fábrica tem um certo monopólio daquilo que há de mais avançado em tecnologia de processamento de dados.

“Talvez a questão não seja homem versus máquina, mas homem versus homem, utilizando da máquina como forma de ampliar a exploração. E isso não começa com as tecnologias digitais. Isso está posto desde que a gente se insere no processo da revolução industrial, num processo de alienação do trabalho que inverte o sentido do trabalho.”

Toda essa cadeia produtiva mundial está dependente de uma fábrica que está em Taiwan, cujo capital não é taiwanensse, mas é internacional e estadunidense. E aqui a gente tem metade da explicação do conflito entre China e Estados Unidos, por exemplo, porque do ponto de vista dos Estados Unidos, se a China retoma o controle total de Taiwan ou os Estados Unidos perdem o controle sobre aquilo que há de mais sofisticado no processo produtivo do capital contemporâneo… Por outro lado, também há um medo dos Estados Unidos de que essa tecnologia favoreça a China na competição capitalista. A China também tem um alto investimento em tecnologias. Aliás, o baixo custo da força de trabalho na China fez com que as principais empresas de tecnologia estadunidense migrassem para a China. 

Esse é o louco do atual estágio de acumulação capitalista. A Apple está na China, a Samsung está na China e mais centenas de outras empresas estão na China. Então, ao mesmo tempo, os Estados Unidos defensores da liberdade, do liberalismo, do estado mínimo, criam o protecionismo para impedir que essa tecnologia de Taiwan esteja sob o controle chinês e esteja acessível ao estado chinês. Mas, ao mesmo tempo, eles não podem impedir que isso chegue às empresas estadunidenses ou àquelas que estão na China.

O ponto é que Taiwan está no centro daquilo que há de mais sensível para a produção capitalista contemporânea. Não é à toa que os eventos políticos em Taiwan são superdimensionados por essa disputa que está para além de Taiwan. Não é só uma questão de ditadura, não ditadura, controle, ou não controle, mas de interesses geopolíticos que ocorrem num momento em que a economia estadunidense e o peso do dólar têm diminuído e, ao mesmo tempo, o papel da China, o risco de alianças geopolíticas entre China, Rússia, Irã e outras potências, criarem eixos alternativos a esse domínio estadunidense. 

Você se faz uma pergunta ainda no começo do livro sobre os algoritmos. E eu reproduzo ela aqui para o nosso papo: “…esses algoritmos macabros colonizam o nosso cotidiano para captar dados e induzir nosso comportamento e nossa subjetividade. Com que razão o fazem?…” Quem projeta esses algoritmos são pessoas, a serviço de interesses capitalistas, de acumulação e dominação, certo?

Exato. Uma preocupação que a gente teve no livro foi desmistificar a tecnologia diante de algo que a gente chama – dialogando com outros teóricos, como o Henrique Novaes – de fetiche da tecnologia. O fetiche da tecnologia tem várias facetas, uma delas é uma certa tecnofobia, que imagina as tecnologias dominando a humanidade e a gente escravo da máquina e, de certa forma, temos razões para ficarmos preocupados.

Mas, de certa forma, quando essa tecnofobia aparece, ela aparece fetichizada, como a máquina se rebelando contra o ser humano. E quando eu penso na máquina se rebelando, eu perco de vista…o Marx, quando ele fala do fetiche da mercadoria, ele fala que a gente deixa de ver a mercadoria como produto das relações e passa a vê-la como algo autônomo, como algo dotado de autonomia em si, quando na verdade ela é produto das relações e a tecnologia também.

Então, quando eu trato do tema como homem versus máquina, eu perco de vista que essa máquina é produzida assim por alguém que está atravessado por determinadas relações sociais e que está subordinado a determinados interesses. Isso recoloca a questão, porque talvez a questão não seja homem versus máquina, mas homem versus homem, utilizando da máquina como forma de ampliar a exploração. E isso não começa com as tecnologias digitais. Isso está posto desde que a gente se insere no processo da revolução industrial, num processo de alienação do trabalho que inverte o sentido do trabalho. 

“A saída não é a revolta contra a máquina. A saída é a revolta contra as relações sociais que desenham, que orientam e que projetam a máquina para ampliar a exploração.”

O trabalho deixa de ser algo feito para satisfazer a necessidade, passa a ser um trabalho reorientado para valorizar o capital. Inclusive a introdução da tecnologia no capitalismo não tem a função de aliviar a vida do trabalhador, nunca teve. Ela tem a função de fazer o trabalhador trabalhar mais. Mas a saída não é a revolta contra a máquina. A saída é a revolta contra as relações sociais que desenham, que orientam e que projetam a máquina para ampliar a exploração. Porque senão, eu posso até me perguntar: será que eu uso o Instagram, ou não uso? É uma pergunta salutar, mas isso não resolve o problema. Eu posso não usar o Instagram e usar o WhatsApp. Eu posso não usar o WhatsApp e sei lá, usar Twitter. Mas a questão não é essa. 

A questão é pensar como que o algoritmo, esse cálculo, esse processo, uma equação, na verdade, que pondera determinados fluxos de informação a partir de determinada programação… se a gente pensar na estatística, quando eu vou fazer uma regressão logística, eu crio valores, Mas eu também crio ponderações para ajustar os valores para que o resultado alcance um determinado fim. Então os algoritmos, eles não são neutros e nem autônomos. Pelo contrário, eles são projetados por pessoas para garantir a ampliação do lucro. 

Se você estiver no Instagram, por exemplo, você vai descer na barra de rolagem, e se você parou num post, ele entendeu que é bom e esse usuário gosta desse conteúdo. A tendência é que numa opção de milhões de outros posts possíveis, se você segue 10 mil pessoas, num arco de possibilidades, ele vai escolher aquela que tem a ver com essa que você parou e ele vai te dando em cascata uma sequência, de acordo com a informação que você forneceu a partir do seu próprio toque, do que você posta, do que você faz. 

“Essa dissonância cognitiva tem efeitos políticos catastróficos, mas também efeitos subjetivos, efeitos relacionados à auto imagem. Porque ela é, ao mesmo tempo, não só o reflexo puro e simples daquilo que eu posto, mas também uma sugestão daquilo que eu devo postar ou daquilo que eu devo acessar.”

Mas esse é o ponto. Ele é desenhado para ser assim, justamente porque se percebe a partir de tentativa e erro, de sistematização, de psicologia comportamentalista, que a gente fica mais no aplicativo quando a gente se vê nele. Há uma exploração da atenção a partir de elementos afetivos. Quando a gente se vê representado, ou quando os nossos valores aparecem reproduzidos, a gente tende a se engajar mais naquela determinada postagem.

Isso vai criar uma dissonância cognitiva. Porque agora, se eu estou entendendo o algoritmo como uma janela para o mundo, ele deixa de ser essa janela e passa a ser um espelho da minha própria ação. Só que, agora, eu acho que é o mundo. Eu estou vendo ali no algoritmo o que está aparecendo e eu acho que é a opinião popular, mas na verdade aquilo só está refletindo a minha própria escolha para que eu fique mais tempo ali.

Essa dissonância cognitiva tem efeitos políticos catastróficos, mas também efeitos subjetivos, efeitos relacionados à auto imagem. Porque ela é, ao mesmo tempo, não só o reflexo puro e simples daquilo que eu posto, mas também uma sugestão daquilo que eu devo postar ou daquilo que eu devo acessar. Isso é algo interessante do algoritmo, eles não são transparentes, as empresas não têm obrigação de dizer para o usuário quais são os parâmetros de cálculo que elas usam. Então a gente também não sabe muito bem até onde o que a gente está vendo é só aquilo que reflete o nosso interesse ou é também algo viciado pela própria empresa.

Nós vimos recentemente que pessoas ligadas à criação da inteligência artificial se deram conta de que o avanço foi rápido demais e que os desenvolvedores podem ter perdido o controle. O criador perdeu o controle sobre a criatura. E isso acontece no nosso tempo espaço, tudo muito rapidamente. Onde essa falta de controle pode nos levar? Existe limite para essa falta de controle?

É uma pergunta bem interessante, porque, em primeiro lugar, a gente poderia dizer que não há uma falta de controle, há um controle do capital sobre o design das tecnologias e esse controle pode ficar oculto se a gente for pensar a máquina descontrolada. Há uma orientação muito definida sobre os rumos desse desenvolvimento, mas de fato, há algo novo acontecendo e que nos obriga a fazer novas perguntas, talvez ainda sem respostas.

Porque se o que pautou a modernidade, o antropocentrismo, foi essa ideia do ser humano como senhor, como novo Deus, como demiurgo da existência, esse ser humano que desenvolve a técnica para dominar a natureza, agora a gente está caminhando na contramão desse processo. A gente desenvolve a técnica para que a técnica decida por nós e não para que nós tenhamos o poder da decisão. Essa transferência recoloca as coisas em outros termos, porque agora vários processos de decisão passam a ser automatizados. 

Antes da inteligência artificial, você programava um algoritmo ou você programava uma máquina, um robô, para repetir determinadas tarefas. Mas se houvesse um obstáculo inesperado, ele ia continuar fazendo aquela tarefa até ele quebrar ou ele quebrar a coisa. Com a sofisticação, com a introdução da quarta revolução tecno-científica, surge a possibilidade agora de você complexificar os sensores e as unidades de processamento para que, por exemplo, esse programa ou esse robô, ele mesmo perceba elementos novos e processe a informação e ele mesmo tome decisões diferentes.

Um exemplo é o chatbot. Se você tem um problema com sua conta, o cartão não funciona, você liga no banco, mas não consegue mais falar com alguém, você fica com uma voz repetida. Se você entrar no WhatsApp, pior ainda, você tem um conjunto de respostas, aliás, um conjunto de perguntas que foram previstas a partir de um histórico de uso anterior. E para esse conjunto de perguntas, há um conjunto de respostas já feitas. Se você perguntar uma coisa diferente, você vai ficar rodando e você não sai, porque não há criatividade na resposta. Cada pergunta aciona o banco de respostas e aquilo vem automático e às vezes não é o que você quer, é uma pobreza.

Há talvez uma certa antropomorfização dos nomes que se aplicam a essas tecnologias, que talvez tenham um sentido muito ideológico, que é exatamente voltar para esse campo de apresentar aquilo que é produto do trabalho como se fosse o próprio produtor, de forma que a gente perca de vista a nossa possibilidade de interferência nos rumos do próprio design tecnológico e, portanto, dos resultados.

O que é o novo agora com esse estágio da inteligência artificial é que ela não é só preditiva, mas ela também é generativa. Agora ela pode gerar uma resposta nova, a partir da pergunta e de um banco de dados imenso, que só é possível mediante a extração de dados de todos nós, desde que exista na internet. Essa extração permite agora que a inteligência artificial crie uma resposta própria imprevisível. 

Ela é imprevisível, porquê? Porque os parâmetros, os dados, as unidades de processamento de cálculo que a compõem são tantos que a gente não consegue mais fazer uma auditoria para saber por que aquele resultado foi aquele e não outro. Ainda assim, ela ainda tem programadores que vão ponderando e vão calibrando aquela informação. O problema é que eu não consigo mais saber se aquela resposta teve a ver com esse ou aquele cálculo. 

O ChatGPT 3.5 tinha mais de 1 milhão, não lembro agora o número, mas eram milhões de unidades de processamento, que a gente chama de “nós” de parâmetros. É a automatização, da automatização, da automatização, que gera um resultado que parece autônomo, mas é só o resultado desses milhões de parâmetros criados. Isso traz uma questão para a gente, porque se isso é verdade, será que faz sentido chamar a inteligência artificial de inteligência? 

“O problema talvez não seja a tecnologia da inteligência artificial generativa. O problema é ela estar subordinada ao capital, porque aí ela entra num controle que não é o controle das necessidades humanas, não é o interesse coletivo, mas é o interesse privado.” 

O Noam Chomsky vai escrever um artigo lembrando que talvez a inteligência não é só unidade, não é só a velocidade de processamento de dados – e isso os algoritmos fazem desde que inventaram a calculadora numa velocidade muito maior do que o cérebro – mas a inteligência pressupõe outros elementos para além do cálculo: pressupõe oscilação, pressupõe afeto, pressupõe o vazio, que não pode existir nessas unidades de processamento. 

Então, há talvez uma certa antropomorfização dos nomes que se aplicam a essas tecnologias, que talvez tenham um sentido muito ideológico, que é exatamente voltar para esse campo de apresentar aquilo que é produto do trabalho como se fosse o próprio produtor, de forma que a gente perca de vista a nossa possibilidade de interferência nos rumos do próprio design tecnológico e, portanto, dos resultados.

Então, é verdade, o resultado é imprevisível e isso é assustador. Mas o processo que constrói esse resultado é planejado para ser assim, então, ele pode ser ponderado, é uma competição capitalista. Quando surge o ChatGPT 3, depois o 3.5, depois o 4, as empresas concorrentes que também estavam na corrida, propõem parar um pouco a corrida, não porque elas estão pensando no bem da humanidade. Elas propõem parar porque elas estão perdendo a corrida. 

É a ideia do anticristo, do [Friedrich] Nietzsche. O que está perdendo vai dizer: “Olha, não vamos correr não”. Mas é porque ele está perdendo e ele precisa ter um tempo de fôlego para poder entender o que fez aquele competidor ir mais à frente. O ponto que a gente tenta trazer no livro é que o problema talvez não seja a tecnologia da inteligência artificial generativa. O problema é ela estar subordinada ao capital, porque aí ela entra num controle que não é o controle das necessidades humanas, não é o interesse coletivo, mas é o interesse privado. 

Em nome do interesse privado é possível colocar em risco todo o interesse da humanidade. A gente está vivendo isso com o meio ambiente. Todo mundo sabe que o meio ambiente está sendo seriamente afetado, mas ninguém individualmente pode parar a corrida, porque senão ele perde na competição. O problema está colocado e se tem um risco real desse processo perder o controle e se voltar contra nós, ou o programador perder a capacidade de interferir na capacidade de auto programação, esse risco está dado. 

Ele é tecnicamente possível. Ainda não chegamos nisso, há todo um conjunto de teorias sobre isso, que a gente chama de singularidade. Se quando o algoritmo chegar no ponto em que ele superar a inteligência humana e que ele souber da própria existência, ele passará a evitar ser desligado. Tecnicamente, é possível pensar dessa forma, mas o risco hoje maior não é esse. O risco maior não é o ChatGPT descontrolado. O risco é ele estar concentrado no capital da Microsoft.

Fonte: Brasil de Fato

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *