Para a maioria das pessoas, a história das placas gráficas começa com Nvidia e AMD. A realidade é bem diferente.
Muito antes de qualquer uma dessas duas empresas começar a dominar o mercado, e muito antes de as GPUs impulsionarem os jogos modernos, éramos testemunhas dos primórdios da computação gráfica. Para ajudar a entender como chegamos às GPUs modernas, teremos que voltar a uma época anterior à existência do termo “placa gráfica”.
HTG Wrapped 2025: 24 dias de tecnologia
24 dias de nossos hardwares, gadgets e tecnologia favoritos
O que veio antes da existência das placas gráficas?
Para a maioria das pessoas, a computação gráfica ainda não existia.
Para que possamos discutir agora todas as novas GPUs que serão lançadas em 2026, alguém teve que inventar a computação gráfica em primeiro lugar – e isso não é a mesma coisa que uma GPU, nem perto disso.
Os primeiros computadores não exibiam imagens, janelas ou mesmo gráficos endereçáveis por pixels. A maioria dos resultados foi baseada em texto. Teleimpressoras eletromecânicas como o Teletype Model 33 de 1963, que adotou o novo padrão ASCII, eram essencialmente máquinas de escrever glorificadas, cuspindo resultados no papel, uma linha por vez.
Eles eram dolorosamente lentos, altos e muito literais. Não havia nenhum recurso visual além do texto que você ordenou que o computador imprimisse.
Em seguida vieram os terminais de vídeo, chamados de “terminais burros”. Eles eram essencialmente teclados conectados a telas, mas não eram computadores em si – todos faziam parte de uma rede conectada a um computador host, e o terminal exibia tudo o que o host enviava de volta. A tela era dividida em uma grade fixa (geralmente com 80 colunas de largura), e cada caixinha podia exibir um caractere de um conjunto predefinido. Isso permitiu que as pessoas fossem criativas e criassem arte ASCII muito básica, mas tudo foi feito usando caracteres pré-programados e atribuídos a teclas específicas.
Os anos 60 viram o advento da computação gráfica de alguma forma
Mesmo enquanto a maioria das pessoas ainda estava presa ao texto, alguns pesquisadores já estavam experimentando gráficos interativos. Em 1963, Ivan Sutherland criou o Sketchpad, um sistema que permitia aos usuários desenhar e manipular desenhos de linha diretamente na tela. Parece muito parecido com as telas sensíveis ao toque de hoje, não é? O Sketchpad usou uma caneta de luz para conseguir isso.
A computação gráfica interativa também já estava ganhando vida em sistemas de grandes empresas. A IBM começou a distribuir terminais gráficos como o 2250 em 1965.
A introdução do PC acelerou a evolução dos gráficos
Mas ainda tinha pouco a ver com placas gráficas.
O final da década de 1970 nos trouxe o surgimento dos computadores pessoais. Não como os conhecemos hoje, mas em geral. Antes disso, os computadores eram máquinas enormes que ocupavam salas inteiras e eram usadas por empresas; a ascensão do PC os tornou amplamente disponíveis. Isso nos coloca ao alcance da computação gráfica.
Os primeiros dias da computação gráfica nos deram telas de baixa resolução, muitas vezes monocromáticas. Os PCs tinham memória limitada, o que significava que os programadores precisavam ser espertos para conseguir algo remotamente envolvente em termos de produção gráfica.
Máquinas como o Radio Shack TRS-80 introduziram gráficos no estilo bitmap, mas em resoluções extremamente baixas (128×48).
Antes das placas gráficas e dos aceleradores, a CPU e a memória desempenhavam um papel importante nas saídas de vídeo. Visto que os primeiros PCs tinham kilobytes, e não megabytes, de RAM, armazenar imagens em tela inteira era caro e impraticável. Os gráficos eram mínimos e reutilizados agressivamente conforme necessário.
Esta foi uma época anterior a qualquer formato de imagem padrão, antes de JPGs, BMPs e PNGs. O software precisava armazenar imagens como bitmaps brutos ou estruturas de dados personalizadas e compactá-las como se não houvesse amanhã.
Os primeiros padrões de exibição da IBM moldaram os gráficos do PC
A Apple também estava lá, com o Macintosh.
A IBM foi um grande player nos primeiros dias da computação pessoal. Em 1981, a IBM lançou o “PC”, seguido pelo PC-XT em 1983. No entanto, o IBM PC original tinha potência gráfica zero. A maioria das cargas de trabalho ainda era baseada em texto, portanto a clareza do texto e o software confiável eram as duas principais preocupações.
O IBM PC podia ser configurado com o Monochrome Display Adapter (MDA), que era nítido para a época, e fornecia texto de alto contraste sem nenhum gráfico de bitmap. Foi usado para processamento de texto, bancos de dados e planilhas.
O Color Graphics Adapter (CGA), também introduzido com o IBM PC, finalmente adicionou gráficos coloridos básicos, mas é claro, a paleta de cores era minúscula e tudo era de resolução super baixa. Mas ei, pelo menos tínhamos alguns gráficos.
A Apple adotou uma abordagem diferente com os primeiros Macintoshes, ou Macs, como os conhecemos hoje. Os Macs tratavam a tela como um bitmap em vez de uma grade de caracteres pré-programada, dando ao usuário muito mais liberdade. A Apple inovou em setores como design gráfico e publicação graças a essas escolhas, e ainda hoje continua sendo uma referência para cargas de trabalho semelhantes.
Embora a IBM não tenha sido muito generosa com suas interfaces gráficas naqueles primeiros dias, ela fez algo muito mais importante: ajudou a padronizar os modos de exibição do PC no ecossistema compatível com IBM. Com desenvolvedores e fabricantes otimizando seus produtos para serem compatíveis com a IBM como padrão do setor, a porta estava aberta para que a computação gráfica finalmente florescesse.
A ascensão dos gráficos 2D foi um momento crucial na computação
Ainda não estamos nem perto das GPUs de hoje.
No final da década de 1980, os modos gráficos bitmap tornaram-se populares em PCs compatíveis com IBM, e a ascensão do Windows significou que mais software foi otimizado para uma tela endereçável por pixels. Os modos de texto não desapareceram da noite para o dia, mas os gráficos básicos estavam se tornando a norma. E em 1987, o PS/2 da IBM introduziu o VGA, que se tornou a linha de base do PC e, embora essas portas sejam oficialmente muito antigas agora, naquela época elas eram revolucionárias.
O VGA finalmente conseguiu que os computadores pessoais pudessem exibir imagens, jogos e filmes semi-realistas. Também expandiu enormemente a resolução prática e as opções de cores nos PCs, introduzindo o popular modo de 256 cores.
Mesmo que a maior parte dos vídeos ainda fosse pequena, fortemente compactada e, em geral, inexpressiva para os padrões atuais, ainda era inovadora para a época; além disso, o VGA finalmente se tornou uma linha de base que os desenvolvedores poderiam atingir, o que acelerou a revolução gráfica. O SVGA chegou no início da década de 1990 e os PCs puderam finalmente rodar resoluções mais altas, de até 1.024 x 768.
No entanto, os gráficos ainda eram muito controlados pela CPU, e as “placas gráficas” dedicadas, como as chamamos hoje, ainda não eram comuns, embora existissem adaptadores de vídeo como o CGA. Mas no final da década de 1980 e início da década de 1990, a aceleração 2D tornou-se mais difundida.
A aceleração 2D inicial foi implementada como hardware dedicado em placas gráficas complementares (novamente, elas não eram chamadas assim naquela época). Na década de 1990, eles se tornaram cada vez mais motores 2D integrados nas principais placas VGA/SVGA.
Esses aceleradores 2D fizeram muito trabalho pesado para tornar o PC mais responsivo. Mais importante ainda, eles deixaram claro que a computação gráfica era uma carga de trabalho que merecia seu próprio hardware dedicado, o que acabou nos levando às GPUs que conhecemos hoje.




