A Centralização Sistêmica dos Serviços Digitais na Era dos Modelos de Fundação: Análise Econômica, Regulamentar e de Governança sobre a Ascensão das BigTechs de IA

Resumo

A introdução dos Modelos de Fundação (FMs) e o impulso em direção à Inteligência Artificial Geral (AGI) reconfiguraram fundamentalmente o ecossistema digital. Este artigo defende que a migração futura da maioria dos serviços essenciais e comerciais se consolidará sob o controle das Grandes BigTechs de IA, impulsionada por barreiras intransponíveis de Capital Expenditure (CAPEX) e pela integração vertical tecnológica. Analisa-se a natureza desse domínio como um “monopólio não natural” de infraestrutura cognitiva, explorando os riscos competitivos, como o conluio algorítmico, e o risco sistêmico inerente à centralização de decisões. O mercado global de IA demonstra um crescimento exponencial, projetado de USD 233.46 bilhões em 2024 para USD 1,771.62 bilhões até 2032, com um Compound Annual Growth Rate (CAGR) de 29.20% ¹. No contexto desse crescimento, avalia-se como os marcos regulatórios globais (e.g., EU AI Act, iniciativas do CADE no Brasil) buscam mitigar estes riscos ², propondo políticas de interoperabilidade e fortalecimento da capacidade regulatória nacional para enfrentar a dependência tecnológica emergente ³.

Palavras-chave

Inteligência Artificial, Modelos de Fundação, Big Tech, Monopólio Digital, Regulação da IA, Risco Sistêmico, Economia de Plataformas.


1. Introdução: A Reconfiguração dos Mercados pela IA Generativa

1.1. Contextualização e Tese Central

A Inteligência Artificial (IA), particularmente a IA Generativa, transcendeu a fase de ferramentas especializadas, emergindo como a nova infraestrutura cognitiva da economia digital ⁴. O mercado global de IA reflete essa transição, com o setor de Software dominando com uma fatia de 51.40% em 2024, e o segmento de Serviços projetado para expandir a um CAGR significativo de 18.30% entre 2025 e 2034 ⁵. Essa dinâmica de mercado não representa apenas uma adoção de novas tecnologias, mas uma profunda reestruturação que centraliza o poder computacional e a inovação.

A tese central deste artigo argumenta que a migração futura da maioria dos serviços essenciais e comerciais se consolidará sob o controle das Grandes BigTechs de IA. Esta centralização é um resultado direto da ascensão dos Modelos de Fundação (FMs) — grandes redes neurais de aprendizado profundo treinadas em vastos conjuntos de dados generalizados ⁶ — , que atuam como assistentes de propósito geral ⁷. Esses modelos não apenas otimizam processos, automatizam tarefas repetitivas e aumentam a eficiência ⁸, mas se tornam o ponto de partida fundamental (o base model) para o desenvolvimento rápido e econômico de quase todas as novas aplicações ⁹.

A realocação de serviços para essas plataformas não se limita à aquisição de ferramentas; é uma realocação da própria infraestrutura cognitiva e computacional. O crescimento projetado no setor de serviços de IA ¹⁰ é evidenciado pela integração de assistentes de migração baseados em IA generativa em ambientes de nuvem híbrida, como as soluções que utilizam o watsonx da IBM executado no AWS Cloud ¹¹. Essa integração é crítica porque a Big Tech não está apenas vendendo o modelo de IA; ela está vendendo o caminho obrigatório para a modernização. Ao fornecerem as ferramentas de migração e a infraestrutura subjacente ¹², os clientes ficam efetivamente locked-in na infraestrutura de Cloud e nos FMs, permitindo que a Big Tech controle tanto o processo quanto o resultado da transformação digital.

1.2. O Monopólio Digital e o Risco de Governança

O estudo da concentração da IA é fundamental para a Economia Industrial e a Ciência Política. Esse fenômeno redefine os conceitos tradicionais de concorrência e poder em um contexto de “Economia do Solucionismo Tecnológico” ¹³. Historicamente, os monopólios de plataforma digital surgiram devido a economias de escala ¹⁴. A IA Generativa, no entanto, agrava esta situação ao introduzir novos vetores de risco sistêmico e dilemas éticos.

A centralização da infraestrutura de IA amplifica os desafios de governança e ética. A confiança na IA depende de princípios como explicabilidade, imparcialidade e robustez ¹⁵. Contudo, a opacidade dos modelos de fundação e o controle exclusivo dos dados de treinamento pelas Big Techs introduzem riscos como o viés algorítmico, a falta de transparência e a dificuldade de garantir a segurança dos resultados ¹⁶. A necessidade de regulação é urgentemente reconhecida, inclusive pelas próprias grandes empresas ¹⁷, para que a IA não seja monopólio exclusivo de grandes corporações ¹⁸.

A estrutura deste artigo prossegue em três etapas analíticas:

  1. Fundamentação Tecnológica: Demonstrar por que os custos de escala e a natureza dos FMs impõem a centralização.
  2. Análise Econômica: Examinar como essa centralização se manifesta como um Monopólio Não Natural e quais são os riscos competitivos algorítmicos.
  3. Governança e Regulação: Avaliar as respostas regulatórias globais e as implicações para políticas públicas, especialmente no Brasil.

2. A Fundamentação Tecnológica do Domínio: Escala, AGI e o Custo da Infraestrutura

Esta seção estabelece as bases tecnológicas que tornam a centralização dos serviços digitais um resultado estruturalmente necessário sob o paradigma atual de desenvolvimento da IA.

2.1. A Natureza dos Modelos de Fundação (FMs) e a AGI

Modelos de Fundação (FMs) são definidos como grandes redes neurais profundas que, por serem treinadas em vastos conjuntos de dados generalizados, se tornam altamente adaptáveis, podendo ser utilizadas como modelos-base para uma ampla gama de tarefas ¹⁹. Essa versatilidade representa a transição de modelos que serviam a propósitos específicos para assistentes de propósito geral ²⁰.

O avanço na multimodalidade desses modelos é um fator chave para o domínio. Pesquisadores utilizam dados multimodais (visuais e textuais) em FMs, inspirados pela maneira como a inteligência humana processa o conhecimento ²¹. O objetivo final de tais esforços é a Inteligência Artificial Geral (AGI), onde um sistema pode abordar uma ampla classe de tarefas cognitivas ²². A generalização dos FMs, portanto, é o que permite a consolidação de múltiplos serviços — desde análise de dados e geração de conteúdo ⁸ até raciocínio complexo — sob uma única arquitetura controlada.

2.2. O Imperativo de Escala e a Verticalização Inerente

O desenvolvimento e o treinamento de FMs exigem um volume de capital (Capital Expenditure – CAPEX) que supera largamente os valores tradicionalmente aplicados na indústria ²³. Esse investimento maciço é necessário para financiar a inovação e, crucialmente, para manter a infraestrutura de supercomputação. Grandes Big Techs como Meta, Google (DeepMind) ²⁴ e IBM, em parceria com a AWS, estão competindo para oferecer capacidade de supercomputação-como-serviço para treinar modelos massivos ²⁵.

O alto custo de P&D e infraestrutura atua como uma barreira de entrada intransponível, concentrando a capacidade de treinamento e inferência nas mãos de poucas corporações globais. A necessidade de capital ²³ para construir e manter essa infraestrutura impulsiona não apenas a concentração, mas também cria um ciclo onde apenas as Big Techs podem arcar com o custo de conformidade regulatória rigorosa. A imposição de padrões de robustez, qualidade de dados e compliance (conforme será discutido na Seção 4 ) atua como um “Moat Regulatório”. As empresas que conseguem absorver esses custos transformam a própria regulação em uma nova barreira, solidificando ainda mais sua posição de mercado.

Além disso, a otimização de Modelos de Fundação é cada vez mais realizada através de uma integração vertical profunda. A Apple, por exemplo, demonstrou que a performance ideal de seus modelos de IA é alcançada pela ligação intrínseca entre o modelo, o sistema operacional (OS) e o hardware específico (Apple silicon), utilizando linguagens de programação como Swift ²⁶. Essa integração estratégica cria um Monopólio Funcional: a Big Tech controla o modelo, a infraestrutura de processamento e, muitas vezes, o canal de distribuição (seja Cloud ou OS), garantindo que a performance ideal do serviço de IA esteja vinculada ao seu ecossistema proprietário.

O setor de IA generativa pode ser dividido em segmentos upstream (desenvolvimento de Modelos-Base/FMs) e downstream (criação de modelos especializados e serviços). Os fornecedores de FMs podem optar por integrar verticalmente e oferecer serviços especializados diretamente, ou controlar o acesso aos seus modelos via serviços de Cloud ²⁷. Essa verticalização é a chave para o domínio.

2.3. Monopólio de Dados e Risco de Conhecimento Exclusivo

O poder dos FMs reside na qualidade e no volume de seus dados de treinamento, tornando o acesso contínuo e em escala a dados um recurso estratégico. As Big Techs detêm um monopólio sobre a coleta, o processamento e a curadoria de dados comportamentais e contextuais ²⁸. A robustez e a representatividade desses datasets são fundamentais para a mitigação de viés e para a conformidade com futuras regulamentações ²⁹.

Casos que envolvem o uso de dados sensíveis, como o acordo entre o Google DeepMind e o serviço de saúde britânico (NHS), revelaram ambiguidades legais substanciais. Embora garantias públicas fossem dadas de que os dados de pacientes jamais seriam associados a contas ou produtos do Google ³⁰, a realidade jurídica por trás dessas promessas permaneceu ambígua ³¹. A centralização do controle de dados em poucas entidades globais gera não apenas um risco competitivo, mas um profundo risco de conhecimento exclusivo e de privacidade sistêmica.

A Tabela 1 sintetiza os fatores tecnológicos e econômicos que impulsionam essa consolidação estrutural.

Tabela 1: Drivers de Centralização dos Modelos de Fundação (FMs)

DriverDescrição TécnicaImpacto na Centralização (Vantagem Big Tech)Fontes
Custo de Treinamento (CAPEX)Volume de capital necessário para financiar inovação e supercomputação-como-serviço supera valores industriais tradicionais ²³.Barreira de entrada intransponível; aquisição de talentos e concentração de infraestrutura de Cloud Computing (ex: supercomputadores de IA) ²², ²⁵, ¹⁴.²³, ²², ²⁵, ¹⁴
Natureza Generalista (GPAI)Modelos pré-treinados em dados maciços e não rotulados, capazes de adaptar-se a inúmeras tarefas (downstream) ¹⁹.Elimina a necessidade de múltiplos modelos especializados, consolidando serviços em uma única API ou plataforma de Cloud ⁷, ²⁰.¹⁹, ⁷, ²⁰
Integração VerticalOtimização da performance do FM através da ligação intrínseca entre modelo, sistema operacional (OS) e hardware (silicon, ex: Apple) ²⁴.Cria lock-in tecnológico e aumenta a eficiência de custo/velocidade dentro do ecossistema proprietário (Monopólio Funcional).²⁴
Economias de Escala de DadosMonopólio sobre a coleta e processamento contínuo de dados comportamentais e contextuais em vasta escala ²⁸.Maior precisão e poder de previsão (feedback loop), reforçando os efeitos de rede e o domínio do mercado ²⁸, ¹³.²⁸, ¹³

3. Análise Econômica: O Regime de Monopólio Não Natural da IA

3.1. Monopólio Não Natural e a Dinâmica de Plataformas

O domínio das Big Techs de IA não se encaixa na definição clássica de “monopólio natural”, comum a setores de utilidade (como distribuição de eletricidade ou gás) onde os custos fixos são tão grandes que a competição estável é inviável e requer regulação de preço ²⁹. As Big Techs, pelo contrário, são monopólios que surgiram por economias de escala e de rede, utilizando dados para direcionar publicidade e subverter a concorrência ¹³.

A IA Generativa aprofunda essa característica, transformando o controle da infraestrutura cognitiva (os FMs) no novo vetor de domínio. A decisão dos fornecedores de modelos-base (o upstream) de competir ativamente no mercado downstream (serviços especializados) ³⁰ representa um grave conflito de interesses. Isso permite que a Big Tech use informações detalhadas sobre o uso da API e o comportamento do usuário final para desenvolver serviços concorrentes, eliminando inovações menores que dependem de sua infraestrutura básica.

3.2. Riscos Competitivos Algorítmicos

O uso de algoritmos sofisticados pelas Big Techs introduz riscos de 3ª ordem para a concorrência, onde o comportamento anticompetitivo é automatizado e mais difícil de rastrear do que em mercados tradicionais. O Conselho Administrativo de Defesa Econômica (CADE) no Brasil identificou a capacidade desses algoritmos de facilitar práticas danosas, incluindo o conluio tácito (coordenação de preços sem comunicação explícita), discriminação algorítmica de preços e a autodefinição (self-preferencing) em ranqueamentos de serviços digitais ³¹.

Para enfrentar o desafio da investigação de condutas algorítmicas, o CADE, espelhando modelos europeus ³², defende a necessidade de desenvolver novas ferramentas e conhecimentos técnicos. Isso inclui a revisão dos poderes de requisição e inspeção para acessar os algoritmos e analisar os dados de treinamento ³³. Sem tais ferramentas, a autoridade regulatória permanece cega diante de decisões anticompetitivas que são codificadas no próprio sistema.

Um argumento que frequentemente obscurece a necessidade de intervenção regulatória é o discurso do “solucionismo tecnológico” ³⁴. Esse conceito, promovido pelas Big Techs, sugere que a tecnologia de IA é a solução inevitável para problemas sociais e estruturais, desviando o foco da concentração de poder e dos problemas regulatórios subjacentes ³⁵. Essa narrativa cria um ciclo vicioso: a própria infraestrutura que gera os problemas de concentração de mercado é vendida como a única entidade capaz de resolver os desafios da sociedade, impedindo o surgimento de alternativas competitivas viáveis ³⁵. A consolidação do mercado de serviços ocorre, assim, em um estado de domínio estrutural.

3.3. O Open Source como Válvula de Escape: Limitações e Potencial

O movimento Open Source (OS) é frequentemente citado como um mecanismo de mitigação da centralização, sendo vital para a inovação e redução de custos, especialmente para startups e economias em desenvolvimento ³⁶. A Declaração dos Líderes do BRICS, por exemplo, incentiva o desenvolvimento de modelos fundacionais abertos, regionalmente eficientes em recursos, para promover ecossistemas de inovação inclusivos ³⁷.

Contudo, a principal limitação do Open Source reside no que se pode chamar de “falha de infraestrutura”. Embora o OS democratize o código-fonte e reduza custos de licenciamento ³⁸, ele não resolve o problema do acesso ao poder de processamento massivo e caro (CAPEX) necessário para o treinamento e a inferência de modelos de ponta ³⁹. Mesmo que o modelo de fundação seja aberto, ele frequentemente precisa ser executado ou adaptado em serviços de Cloud Computing controlados pelas Big Techs ²⁷. Portanto, a centralização do serviço persiste na camada da infraestrutura crítica, que dita o limite de escalabilidade e o custo operacional de qualquer solução alternativa.


4. Governança e Risco Sistêmico: As Respostas Regulatórias Globais

A migração de serviços essenciais para plataformas controladas por Big Techs de IA exige um arcabouço regulatório que trate a IA não apenas como um produto, mas como infraestrutura com potencial risco sistêmico. O EU AI Act (Regulamento Inteligência Artificial da União Europeia) ⁴⁰ serve como o principal precedente global para governar essa centralização, adotando uma classificação rigorosa baseada no risco ⁴¹.

4.1. O AI Act da UE e a Regulação de Risco Sistêmico

O AI Act utiliza um sistema de classificação em quatro níveis: risco inaceitável, risco elevado, risco limitado e risco mínimo ⁴⁵. Sistemas de risco inaceitável, como o social scoring ou a manipulação cognitiva de grupos vulneráveis, são terminantemente proibidos no território da UE ⁴².

O foco regulatório reside nos sistemas de Alto Risco (High-Risk). Um sistema de IA é classificado como alto risco se for usado como componente de segurança em produtos regulamentados ⁴³ ou se for aplicado em setores essenciais listados (como recursos humanos, saúde, e sistemas críticos de infraestrutura) ⁴⁴. Os fornecedores desses sistemas de alto risco são submetidos a obrigações rigorosas antes de poderem ser colocados no mercado ⁴⁴.

Para os Modelos de IA de Propósito Geral (General-Purpose AI Models – GPAI), que, devido ao seu alto poder e ampla disseminação, podem representar risco sistêmico, regras específicas são aplicadas ⁴⁰. Tais regras incluem a avaliação e mitigação proativa desses riscos sistêmicos, transparência e adesão às regras de direitos autorais ⁴⁰.

4.2. Transparência, Explicabilidade e Governança Centralizada

As obrigações impostas aos fornecedores de IA de alto risco e GPAI visam garantir a rastreabilidade e a confiança. Tais obrigações incluem:

  1. Elevada qualidade dos conjuntos de dados para minimizar o risco de resultados discriminatórios (viés) ²⁹.
  2. Registro da atividade para garantir a rastreabilidade dos resultados ²⁹.
  3. Documentação pormenorizada sobre o sistema e sua finalidade ²⁹.
  4. Alto nível de robustez, cibersegurança e exatidão ²⁹.

A transparência, a imparcialidade e a robustez são a base para a confiança no uso da IA ¹⁵. Em resposta a esses desafios, algumas Big Techs estabeleceram mecanismos de governança interna, como Conselhos de Ética de IA centralizados, compostos por líderes de diversas áreas da empresa, buscando fornecer um processo centralizado de governança e tomada de decisões éticas ¹⁵. A transparência exigida pela regulação inclui, por exemplo, um resumo público dos conteúdos de formação utilizados para treinar modelos GPAI ⁴⁰, permitindo um controle sobre a qualidade e a origem dos dados.

4.3. O Papel do Implantador e a Supervisão Humana

O AI Act adota um modelo de responsabilidade compartilhada, impondo obrigações ao provedor e ao implantador (deployer). Os implantadores de sistemas de alto risco são obrigados a garantir a supervisão humana competente, o monitoramento contínuo da operação e a relevância e representatividade dos dados de entrada, na medida em que exercem controle sobre eles ⁴⁴.

Entretanto, a centralização do desenvolvimento do FM (pelo provedor Big Tech) e a descentralização do seu uso (pelo deployer) cria um complexo desafio de accountability. Se o viés sistêmico ou a falha de segurança residem no modelo fundamental ou nos dados de treinamento controlados pela Big Tech (o upstream), a responsabilidade imposta ao deployer pode ser insuficiente para mitigar o risco sistêmico de forma eficaz.

A Tabela 2 demonstra como o regime de risco se relaciona com as obrigações impostas aos fornecedores centralizados.

Tabela 2: Risco Sistêmico e Obrigações Regulatórias para Provedores de IA Centralizada

Classificação de Risco (Ex: AI Act)Tipo de Serviço Afetado pela CentralizaçãoObrigações Impostas ao Fornecedor (Big Tech)Risco Sistêmico MitigadoFontes
Risco InaceitávelServiços de vigilância social e manipulação comportamental ⁴².Proibição de colocação no mercado; foco em direitos fundamentais.Proteção contra abuso e engenharia social em massa.⁴², ¹
Risco Elevado (High-Risk)Sistemas em setores críticos (Saúde, Crédito, RH); FMs usados como componente de segurança ⁴³.Sistemas de avaliação de riscos; alta qualidade dos datasets (viés) ²⁹; registro de atividade ²⁹; supervisão humana ⁴⁴.Redução de viés algorítmico, aumento da rastreabilidade e explicabilidade ¹⁵.⁴³, ⁴⁴, ²⁹, ¹⁵
GPAI com Risco SistêmicoModelos de Fundação amplamente utilizados, capazes de influenciar múltiplos setores (ex: modelos de linguagem avançados) ⁴⁰.Avaliação e mitigação de riscos sistêmicos ⁴⁰; transparência (resumo de conteúdo de treinamento) ⁴⁰ e regras de direitos autorais ⁴⁰.Controle da cadeia de fornecimento de IA e proteção contra impacto global de falhas no modelo.⁴⁰

Ainda que o AI Act se concentre em mitigar riscos, a migração de serviços digitais exige ferramentas que abordem diretamente o controle de mercado. O Digital Markets Act (DMA) da UE ⁴⁰, embora focado em gatekeepers digitais e plataformas, oferece um modelo regulatório essencial. O DMA exige que os gatekeepers permitam a interoperabilidade com serviços de terceiros e forneçam aos usuários de negócios acesso aos dados gerados em suas plataformas ³. Este modelo precisa ser adaptado para forçar a abertura de APIs e dados de inferência de FMs sistemicamente relevantes. A regulamentação de risco (o AI Act) impõe a conformidade, mas a regulamentação de mercado (inspirada no DMA) é necessária para quebrar o monopólio e forçar o acesso e a concorrência na camada de serviço.


5. Conclusões e Implicações para Políticas Públicas Brasileiras

5.1. Recapitulação: O Cenário de Consolidação e os Riscos de Dependência

A análise demonstrou que a migração da maioria dos serviços para plataformas de Big Techs de IA não é uma contingência, mas um resultado estrutural imposto pela tecnologia dos Modelos de Fundação (FMs). A necessidade de capital massivo (CAPEX) para treinamento e infraestrutura ²³, a natureza generalista dos FMs ¹⁶, e a integração vertical proprietária ²⁴ criam barreiras de entrada efetivamente intransponíveis.

O risco primário é duplo:

  1. Risco Estrutural de Concorrência: A consolidação conduz a um monopólio não natural, onde as Big Techs controlam tanto a infraestrutura cognitiva (upstream) quanto os serviços especializados (downstream) ³⁰, facilitando práticas anticompetitivas algorítmicas, como o conluio tácito ³¹.
  2. Risco Sistêmico de Governança: A centralização do controle sobre dados e algoritmos de alto risco (GPAI) exige regulação rigorosa de compliance (qualidade de dados, mitigação de viés) ²⁹, mas, ironicamente, essa regulação pode atuar como um custo que apenas as Big Techs conseguem absorver.

5.2. Recomendações Estratégicas para o Brasil

O Brasil, ao desenvolver o seu Plano de Inteligência Artificial ⁴⁶, precisa adotar uma postura regulatória proativa e multifacetada, reconhecendo que a regulação deve ir além da mitigação de riscos para abordar a estrutura de mercado ²³.

  1. Adoção de Regulação Híbrida de IA e Mercado: É essencial combinar a classificação de risco (modelo EU AI Act ⁴⁰) com a regulação de plataforma e concorrência (modelo DMA ⁴⁰). O foco deve ser identificar Modelos de Fundação como infraestrutura essencial (utilidade cognitiva) e impor obrigações de interoperabilidade e acesso a dados e APIs, forçando a competição na camada de serviços ³.
  2. Fortalecimento Investigativo do CADE: O Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), em conjunto com o CADE, deve receber poderes ampliados para exigir transparência algorítmica ³³. Isso inclui a capacidade de inspecionar e analisar algoritmos e conjuntos de dados de treinamento de FMs sistemicamente relevantes, como já defendido pelas autoridades brasileiras ³¹.
  3. Fomento a Modelos de Fundação Regionais e Abertos: Para mitigar a dependência estratégica de conhecimento e infraestrutura do Norte Global ²³, o Brasil deve ativamente promover o desenvolvimento de FMs abertos (open source), regionalmente especializados (focados em dados e culturas locais), e eficientes em recursos. Essa estratégia está alinhada com as diretrizes de governança global defendidas pelos líderes do BRICS ³⁷, buscando democratizar o acesso à camada tecnológica de base.

5.3. Sugestões de Pesquisa Futura

A complexidade da IA Generativa demanda investigações contínuas para informar políticas públicas eficazes. Sugerem-se pesquisas futuras focadas em:

  • Modelagem e simulação detalhada de práticas de conluio tácito algorítmico em mercados de serviços digitais brasileiros, avaliando o limiar de intervenção regulatória ³¹.
  • Estudos empíricos sobre o impacto econômico dos custos de compliance do AI Act e regulamentações similares em pequenas e médias empresas (PMEs) que utilizam FMs via API, visando equilibrar a segurança com a inovação.
  • Análise da efetividade de medidas de interoperabilidade (inspiradas no DMA) quando aplicadas diretamente a FMs classificados como gatekeepers de infraestrutura cognitiva.

6. Referências

¹ FORTUNE BUSINESS INSIGHTS. Artificial Intelligence Market Size and Future Outlook.: Fortune Business Insights, 2024. Disponível em: https://www.fortunebusinessinsights.com/industry-reports/artificial-intelligence-market-100114. Acesso em: 10 out. 2025.

² COMISSÃO EUROPEIA. Regulamento Inteligência Artificial (Regulamento (UE) 2024/1689).: Comissão Europeia, 2025. Disponível em: https://digital-strategy.ec.europa.eu/pt/policies/regulatory-framework-ai. Acesso em: 10 out. 2025.

³ COMISSÃO EUROPEIA. Digital Markets Act: ensuring fair and open digital markets.: Comissão Europeia, 2024. Disponível em: https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-markets-act-ensuring-fair-and-open-digital-markets_en. Acesso em: 10 out. 2025.

⁴ IBM. O futuro da IA: tendências que moldam os próximos 10 anos.: IBM, 2024. Disponível em: https://www.ibm.com/br-pt/think/insights/artificial-intelligence-future. Acesso em: 10 out. 2025.

⁵ PRECEDENCE RESEARCH. Artificial Intelligence Market.: Precedence Research, 2024. Disponível em: https://www.precedenceresearch.com/artificial-intelligence-market. Acesso em: 10 out. 2025.

⁶ AWS. What are Foundation Models?.: Amazon Web Services, 2024. Disponível em: https://aws.amazon.com/what-is/foundation-models/. Acesso em: 10 out. 2025.

⁷ IEEE XPLORE. Foundation Models AGI centralização serviços IEEE Xplore.: Now Foundations and Trends, 2024. Disponível em: https://doi.org/10.1561/9781638283379. Acesso em: 10 out. 2025.

⁸ MAIQUEL GOMES. AI Brazil – Artificial Intelligence.: Maiquel Gomes, 2024. Disponível em: https://maiquelgomes.com.br. Acesso em: 10 out. 2025.

⁹ NCBI. Foundation Models AGI centralização serviços IEEE Xplore.: NCBI, 2022. Disponível em: https://pmc.ncbi.nlm.nih.gov/articles/PMC9163040/. Acesso em: 10 out. 2025.

¹⁰ IBM. Consultoria de IA Transforme sua empresa com a IA generativa.: IBM, 2024. Disponível em: https://www.ibm.com/br-pt/consulting/aws. Acesso em: 10 out. 2025.

¹¹ IBM. Minha IBM Faça login.: IBM, 2024. Disponível em: https://www.ibm.com/br-pt/think/insights/ai-and-the-future-of-work. Acesso em: 10 out. 2025.

¹² CONCORRÊNCIA. IA GENERATIVA: A ABERTURA DE MODELOS DE IA. Lisboa: Autoridade da Concorrência, 2024. Disponível em:(https://www.concorrencia.pt/sites/default/files/processos/epr/AI%20short%20paper%20-%20A%20Abertura%20de%20Modelos%20de%20IA%20-%20PT.pdf). Acesso em: 10 out. 2025.

¹³ REVISTAS PUCSP. Big Tech Way of Life: Inteligencia artificial y solucionismo tecnológico para la sociedad y la subjetividad neoliberal. São Paulo: PUCSP, 2023. Disponível em: https://revistas.pucsp.br/index.php/aurora/article/view/63077. Acesso em: 10 out. 2025.

¹⁴ BOSTON UNIVERSITY LAW. Digital platform monopolies services migration. Boston: Boston University Law, 2024. Disponível em: https://scholarship.law.bu.edu/cgi/viewcontent.cgi?article=1606&context=faculty_scholarship. Acesso em: 10 out. 2025.

¹⁵ IBM. Confiança, transparência e governança em IA.: IBM, 2024. Disponível em: https://www.ibm.com/br-pt/think/topics/ai-ethics. Acesso em: 10 out. 2025.

¹⁶ ARTIFICIAL INTELLIGENCE ACT. High-Level Summary.: AI Act, 2024. Disponível em: https://artificialintelligenceact.eu/high-level-summary/. Acesso em: 10 out. 2025.

¹⁷ YOUTUBE. IA e a regulação: um debate necessário.: Youtube, 2024. Disponível em:(https://www.youtube.com/watch?v=CjiOJDdahl4). Acesso em: 10 out. 2025.

¹⁸ OUTRAS PALAVRAS. Mazzucato: “Salvemos a IA das Big Techs”.: Outras Palavras, 2024. Disponível em: https://outraspalavras.net/tecnologiaemdisputa/mazzucato-salvemos-a-ia-das-big-techs/. Acesso em: 10 out. 2025.

¹⁹ ARXIV. Large Language Models. Cornell University, 2025. Disponível em: https://arxiv.org/abs/2501.09223. Acesso em: 10 out. 2025.

²⁰ ARXIV. Towards artificial general intelligence with large language models. Cornell University, 2025. Disponível em: https://arxiv.org/html/2501.03151v1. Acesso em: 10 out. 2025.

²¹ ARXIV. AGI Roadmap: Responsibly Approaching AGI. Cornell University, 2024. Disponível em: https://arxiv.org/html/2405.10313v1. Acesso em: 10 out. 2025.

²² GOOGLE DEEPMIND. Unlocking a new era of discovery with AI.: Google DeepMind, 2024. Disponível em: https://deepmind.google/research/projects/. Acesso em: 10 out. 2025.

²³ GARCIA, M. IA desencadeia cenário imprevisível na economia. Jornal da Unicamp, Campinas, Ed. 723, p. 11, 07 a 27 de abril de 2025. Disponível em: https://jornal.unicamp.br/edicao/723/ia-desencadeia-cenario-imprevisivel-na-economia/. Acesso em: 10 out. 2025.

²⁴ APPLE MACHINE LEARNING. Apple Foundation Models 2025 Updates.: Apple, 2025. Disponível em: https://machinelearning.apple.com/research/apple-foundation-models-2025-updates. Acesso em: 10 out. 2025.

²⁵ NCBI. Google DeepMind and healthcare in an age of algorithms.: NCBI, 2017. Disponível em: https://pmc.ncbi.nlm.nih.gov/articles/PMC5741783/. Acesso em: 10 out. 2025.

²⁶ MILKEN REVIEW. Big Tech as an unnatural monopoly.: Milken Institute, 2023. Disponível em: https://www.milkenreview.org/articles/big-tech-as-an-unnatural-monopoly. Acesso em: 10 out. 2025.

²⁷ DISTRITO. Open Source: o que é e importância para a inovação em IA.: Distrito, 2024. Disponível em: https://distrito.me/blog/open-source-o-que-e-e-importancia-para-a-inovacao-em-ia/. Acesso em: 10 out. 2025.

²⁸ MCKINSEY. How open source AI solutions are reshaping business.: McKinsey, 2025. Disponível em: https://www.mckinsey.com/capabilities/quantumblack/our-insights/open-source-technology-in-the-age-of-ai. Acesso em: 10 out. 2025.

²⁹ DPLNEWS. Regulação da IA: Cade propõe estratégias por concorrência justa.: DPL News, 2025. Disponível em: https://dplnews.com/regulacao-da-ia-cade-propoe-estrategias-por-concorrencia-justa/. Acesso em: 10 out. 2025.

³⁰ GOV.BR. Declaração dos Líderes do BRICS sobre governança global da Inteligência Artificial. Brasília: Ministério das Relações Exteriores, 2024. Disponível em: https://www.gov.br/mre/pt-br/canais_atendimento/imprensa/notas-a-imprensa/declaracao-dos-lideres-do-brics-sobre-governanca-global-da-inteligencia-artificial. Acesso em: 10 out. 2025.

³¹ EUROPARL. EU AI Act: first regulation on artificial intelligence.: Parlamento Europeu, 2023. Disponível em:(https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence). Acesso em: 10 out. 2025.

³² ARTIFICIAL INTELLIGENCE ACT. Article 6.: AI Act, 2024. Disponível em: https://artificialintelligenceact.eu/article/6/. Acesso em: 10 out. 2025.

³³ ARTIFICIAL INTELLIGENCE ACT. Article 26.: AI Act, 2024. Disponível em: https://artificialintelligenceact.eu/article/26/. Acesso em: 10 out. 2025.

³⁴ GOV.BR. Regulação equilibrada da Inteligência Artificial ajudará a fortalecer o novo ciclo de desenvolvimento do país. Brasília: Ministério da Fazenda, 2025. Disponível em: https://www.gov.br/fazenda/pt-br/assuntos/noticias/2025/junho/regulacao-equilibrada-da-inteligencia-artificial-ajudara-a-fortalecer-o-novo-ciclo-de-desenvolvimento-do-pais. Acesso em: 10 out. 2025.

³⁵ TRILHANTE. ABNT Referências – Livros, Capítulos e Trabalhos Acadêmicos.: Trilhante, 2024. Disponível em: https://trilhante.com.br/curso/metodologia/aula/abnt-referencias-livros-capitulos-e-trabalhos-academicos. Acesso em: 10 out. 2025.

³⁶ METODOLOGIA CIENTÍFICA. O Caminho das Pedras.: IBG, 2010. Disponível em: https://professoraibg.files.wordpress.com/2016/02/livro-metodologia-da-pesquisa-2010.pdf. Acesso em: 10 out. 2025.

³⁷ IBM. O futuro da IA: tendências que moldam os próximos 10 anos.: IBM, 2024. Disponível em: https://www.ibm.com/br-pt/think/insights/artificial-intelligence-future. Acesso em: 10 out. 2025.

³⁸ ARXIV. Large Language Models. Cornell University, 2025. Disponível em: https://arxiv.org/abs/2501.09223. Acesso em: 10 out. 2025.

³⁹ MCKINSEY. Open source in the age of AI.: McKinsey, 2025. Disponível em: https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/tech-forward/open-source-in-the-age-of-ai. Acesso em: 10 out. 2025.

⁴⁰ ARTIFICIAL INTELLIGENCE ACT. Article 50.: AI Act, 2024. Disponível em: https://artificialintelligenceact.eu/article/50/. Acesso em: 10 out. 2025.

⁴¹ YALE SOM. Digital Platform Regulation.: Yale School of Management, 2025. Disponível em:(https://som.yale.edu/sites/default/files/2025-05/SCOTT-MORTON_Digital_Platform_Regulation_pages.pdf). Acesso em: 10 out. 2025.

⁴² ARTIFICIAL INTELLIGENCE ACT. Article 3.: AI Act, 2024. Disponível em: https://artificialintelligenceact.eu/article/3/. Acesso em: 10 out. 2025.

⁴³ ARTIFICIAL INTELLIGENCE ACT. High-Level Summary.: AI Act, 2024. Disponível em: https://artificialintelligenceact.eu/high-level-summary/. Acesso em: 10 out. 2025.

⁴⁴ ARTIFICIAL INTELLIGENCE ACT. Article 6.: AI Act, 2024. Disponível em: https://artificialintelligenceact.eu/article/6/. Acesso em: 10 out. 2025.


Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *