GPU Yapay Zeka ve Bilgi İşleme Nasıl Hakim Oldu?

Bundan otuz yıl önce, bilgi işlem görevlerinin çoğundan CPU’lar ve diğer özel işlemciler sorumluydu. O zamanlar GPU’lar esas olarak Windows’ta ve uygulamalarda 2 boyutlu şekillerin çizimini hızlandırmak için kullanılıyordu ve başka önemli bir işlevleri yoktu. Ancak günümüze hızla ilerlersek GPU’lar teknoloji sektörünün en önemli çiplerinden biri hâline geldi.

Günümüzde GPU’lar makine öğrenimi ve yüksek performanslı bilgi işlemde çok önemli bir rol oynuyor. İşlem güçlerine büyük ölçüde güveniliyor. GPU’lar neredeyse grafik zanaatkarlığından karmaşık matematiksel hesaplamaları gerçekleştiren profesörlere evrildi.

1990’ların sonlarında CPU’lar yüksek performanslı bilgi işlemde baskın güçtü. Yeri geliyor süper bilgisayarlar gerektiren bilimsel araştırmalarda kullanılıyordu, bazen de sunucularda veri işleme, iş istasyonlarında ise mühendislik ve tasarım çalışmaları gibi görevleri yerine getiriyordu. Bu süre zarfında iki tip CPU kullanıldı. İlk tip, belirli amaçlar için tasarlanmış özel işlemcilerden oluşuyordu. İkinci tip ise AMD, IBM veya Intel gibi şirketlerin kullanıma hazır çiplerinden ibaretti.

Bu dönemdeki güçlü bilgisayarların dikkate değer bir örneği ise 1997 civarında üretilen ASCI Red süper bilgisayarıydı. Toplamda 9.632 Intel Pentium II Overdrive CPU’ya sahipti. Her CPU 333 MHz hızında çalışıyordu. Tüm sistemin teorik en yüksek bilgi işlem performansı 3,2 TFLOPS’un biraz üzerindeydi.

Bu makalede TFLOPS’a sıklıkla değineceğimiz için bunun ne anlama geldiğini açıklamaya biraz zaman ayırsak güzel olabilirdi ancak daha önceden açıkladığımız makaleye buradan ulaşarak ne anlama geldiğini detaylıca öğrenebilirsiniz. Ancak kısaca değinmek gerekirse bilgisayar bilimlerinde kayan noktalar 7,4615 veya 0,0143 gibi tam sayı olmayan değerleri yani ondalıklı sayıları temsil eden verilerdir. Tam sayılar yani tam değerler, bir bilgisayarı ve üzerinde çalışan herhangi bir yazılımı kontrol etmek için gereken hesaplamalarda sıklıkla kullanılır. Kayan noktalar ise hassasiyetin çok önemli olduğu durumlar için, özellikle de bilim veya mühendislikle ilgili herhangi bir şey için çok önemlidir.

Bir dairenin çevresini belirlemek gibi basit bir hesaplamada bile en az bir kayan nokta değeri kullanırız. CPU’lar onlarca yıldır tamsayılar ve değişkenler üzerinde mantıksal işlemleri yürütmek için ayrı devrelere sahipti. Yukarıda bahsettiğimiz Pentium II Overdrive işlemci saatte bir temel kayan işlem gerçekleştirebilir. Teorik olarak ASCI Red’in 9.632 CPU x 333 (MHz) milyon saat döngüsü x 1 işlem/döngü = 3.207.456 TFLOPS’luk kayan nokta performansına sahip olmasının nedeni de budur. Bu rakamlar ideal koşullara dayanıyor ve gerçek hayatta nadiren elde edilebiliyor. Ancak sistemlerin potansiyel gücüne dair iyi bir gösterge sunuyorlar.

Bu arada o döneme ait diğer süper bilgisayarlar da benzer sayıda standart işlemciye sahipti. Örneğin, Lawrence Livermore Ulusal Laboratuvarı’ndaki Blue Pacific, 5808 IBM’in PowerPC 604e yongasını kullanırken, Los Alamos Ulusal Laboratuvarı’ndaki Blue Mountain ise 6144 MIPS Technologies R1000’i barındırıyordu. Bu CPU’lar çok sayıda RAM ve sabit disk depolama birimi tarafından destekleniyordu. Bu kadar çok CPU’ya ihtiyaç duyulmasının nedeni süper bilgisayarların çok boyutlu matematiksel denklemlerle uğraşmasından kaynaklanıyor. Okula genellikle her şeyin mesafe veya zaman gibi tek bir sayıyla temsil edildiği basit tek boyutlu denklemlerle başlarız. Ancak dünyadaki gerçek olayları doğru bir şekilde modellemek ve simüle etmek söz konusu olduğunda daha fazla boyuta ihtiyaç duyuluyor.

Bu çok boyutlu denklemleri ele almak için matematik vektörleri, matrisleri ve tensörleri kullanır. Bu matematiksel varlıklar bir arada gruplandırılmış birden fazla değerden oluşur. Bir bilgisayar bu varlıkları içeren hesaplamalar yaptığında, aynı anda çok sayıda sayıyı işlemesi gerekir. O zamanlar CPU’lar döngü başına yalnızca bir veya iki kayan noktalı sayıyı işleyebiliyordu. İstenilen işlem gücüne ulaşmak için binlerce CPU’nun bu hesaplamalar üzerinde birlikte çalışması gerekiyordu. Böylelikle süper bilgisayarların teraflop cinsinden ölçülen performans düzeyine ulaşmasını sağladık.

1997 yılında Intel, Pentium CPU serisine MMX adı verilen bir teknolojiyi ekleyerek bir güncelleme yaptı. Bu güncelleme, işlemcinin çekirdeğinde sekiz ekstra kayıt girdisi içeriyordu. Her kayıt girdisi, bir ila dört tam sayıyı tutacak şekilde tasarlandı. Bu yeni sistem, işlemcinin aynı anda birden fazla sayı üzerinde tek bir komut gerçekleştirmesine olanak tanıdı. Bu yaklaşıma Tek Komut, Çoklu Veri (Single Instruction Multiple Data) anlamına gelen SIMD adını veriyoruz.

Bir yıl sonra AMD, 3DNow! adlı kendi sürümünü tanıttı. Daha iyi olduğu düşünülüyordu çünkü kayıt girdileri ondalıklı sayılar olan kayan nokta değerlerini saklayabiliyordu. Ancak Intel’in MMX’teki bu sınırlamayı ele alması bir yıl daha sürdü. Pentium III’te işlemcinin kayan nokta değerlerini de işlemesine olanak tanıyan SSE’yi (Stream SIMD Extensions-Akış SIMD Uzantıları) tanıttılar.


3DNow! AMD K6-2 CPU’da Görüldü Kaynak: Fritzchens Fritz

2000’li yıllara yani yeni milenyuma girerken bilgisayar tasarımcıları, vektör matematiğini verimli bir şekilde kullanma konusunda iyi olan işlemcilere erişime sahipti. Bu işlemciler, çok sayıda kullanıldığında matrisleri ve tensörleri etkili bir şekilde işleyebiliyordu. Ancak bu ilerlemeye rağmen süper bilgisayarlar hâlâ eski veya özel çipleri tercih ediyordu çünkü bu yeni işlemciler bu tür görevler için özel olarak tasarlanmamıştı. Aynı durum SIMD işini AMD veya Intel’in CPU’larıyla karşılaştırıldığında gerçekleştirmede daha iyi olan GPU adı verilen ve hızla popülerleşen bir işlem birimi için de geçerliydi.

Grafik işlemcilerin ilk dönemlerinde CPU’ların ve GPU’ların grafiklerin işlenmesinde farklı rolleri vardı. CPU’lar 3 boyutlu bir sahnedeki nesnelerin şekillerini ve yapılarını hesaplamaya (ki bu sürece SIMD demiştik) odaklanırken, GPU’lar tek tek piksellere renk ve doku ekleme konusunda uzmanlaştı. O zamanlar 3dfx Voodoo5 5500 ve Nvidia GeForce 2 Ultra gibi en üst düzey tüketici sınıfı ekran kartları, SIMD işlemlerini gerçekleştirmede mükemmeldi. Ancak o dönemin ekran kartları esas olarak oyun ve görüntü oluşturma görevleri için optimize edilmişti.

ATI’nin 2.000 dolarlık ATI FireGL 3 ekran kartı, 3D Studio Max ve AutoCAD gibi programlardaki grafikleri hızlandırmak için tasarlanmış bir ekran kartıydı. Biri geometri işleme (GT1000), diğeri rasterleştirme (RC1000) için olmak üzere iki IBM çipi vardı. Ayrıca büyük miktarda belleğe (128 MB) sahipti ve 30 GFLOPS işlem gücüne sahip olduğu iddia ediliyordu. Bu süre zarfında GPU’lar çoğunlukla grafikle ilgili görevler için kullanılıyordu ve kayan nokta matematiği pek yapılmıyordu. 3 boyutlu nesnelerin monitör görüntülerine dönüştürülmesi büyük ölçüde tam sayı hesaplamalarına dayanıyordu.

Ekran kartlarının kayan nokta işlemlerini ardışık düzenlerine dahil etmeye başlaması birkaç yıl sürdü. ATI’nin R300 işlemcisi, matematiği 24 bit kayan nokta hassasiyetinde işleyen ilk GPU’lardan biriydi. Ancak donanım ve yazılım yalnızca görüntü işlemeye odaklandığından bu güç grafikle ilgili görevlerle sınırlıydı. Bilgisayar mühendisleri, GPU’ların önemli miktarda SIMD gücüne sahip olduğunu ancak bunu diğer alanlarda kullanmanın bir yolu olmadığını fark etti. Şaşırtıcı bir şekilde, bir oyun konsolu bu soruna bir çözüm sunarak GPU’nun gücünden grafik dışı uygulamalar için nasıl yararlanılacağını gösterdi.

Microsoft’un Xbox 360 adlı oyun konsolu Kasım 2005’te piyasaya sürüldü. İçeriğindeki CPU IBM tarafından tasarlanıp üretildi ve PowerPC mimarisini kullanıyordu. Grafik tarafında ise ATI tarafından tasarlanıp ve TSMC tarafından üretilen bir GPU vardı. Xbox 360’ı özel kılan şey GPU’sunun tasarımıydı.

Normalde GPU’lar, grafik işlemenin farklı yönlerini ele almak için köşe ve piksel boru hatları adı verilen ayrı parçalara sahiptir. Ancak Xbox 360’ın kod adı Xenos olan GPU’su işleri farklı hâle getirdi. Yenilikçi bir yaklaşımla bu boru hatlarını tek bir düzende birleştirdi. Xenos GPU’nun bu tasarımı, grafik yongalarının nasıl oluşturulacağı konusunda yeni bir düşünme biçimini ateşledi. Gelecekteki tasarımlar için bir model haline geldi ve bugün birçok modern GPU’da hâlâ kullanılıyor.

Büyük bir işlemci yerine SIMD dizileri adı verilen daha küçük işlemcilerden oluşan bir grup vardı. Her dizide 16 işlemci vardı ve her işlemcide beş matematik birimi vardı. Bu tasarım sayesinde çipin her iş parçacığı için aynı anda iki komut gerçekleştirmesine olanak tanıdı. Birleşik gölgelendirici mimarisi olarak bilinen bu tasarım, çipin farklı türdeki grafik efektlerini işleyebilmesini sağladı. Çipin diğer kısımlarını daha karmaşık hale getirse de gelecekteki tasarımlar için yeni bir standart belirledi.

Xenos çipinin saat hızı 500 MHz idi, bu da üç iş parçacığı için saniyede 240 milyar hesaplama (GFLOPS) gerçekleştirebileceği anlamına geliyor. Bunu bir perspektife oturtmak gerekirse, on yıl önceki en güçlü süper bilgisayarlardan bazıları bu hıza yetişemiyordu. Örneğin, 1994 yılında Aragon XP/S140 adı verilen bir süper bilgisayar 3.680 CPU’ya sahipti ancak yalnızca 184 GFLOPS’luk hıza ulaşabiliyordu. CPU’lar zaten birkaç yıldır benzer daha küçük işlemcileri yani SIMD dizilerini kullanıyor olsa da, Xenos çipindekilerle karşılaştırıldığında çok daha zayıftılar. Xenos çipi, grafik işlem gücünde önemli bir gelişmeydi ve GPU’ların gelişiminin ileriye taşınmasına yardımcı oldu.

Tüketici sınıfı ekran kartları birleşik gölgelendirici mimarisine sahip GPU’ları kullanmaya başladığında Xbox 360’a kıyasla işlem hızında büyük bir fark yaratmıştı. Bu ekran kartları fahiş fiyatlara sahip olsa da üst düzey bilimsel bilgisayarlar için oldukça uygundu. Ancak dünya çapındaki süper bilgisayarlar standart CPU’larla çalışmaya devam etti. GPU’ların bu sistemlerde yer almasına birkaç yıl daha vardı.

Süper bilgisayarların ve benzeri sistemlerin oluşturulması ve çalıştırılması çok pahalıdır. Eskiden çok sayıda CPU ile oluşturulmuşlardı, dolayısıyla başka bir işlemci eklemek kolay değildi. Bu sistemlerin çip sayısını arttırmadan önce dikkatli bir planlama ve teste ihtiyacı vardı. Ayrıca tüm bileşenlerin, özellikle de yazılımın birlikte sorunsuz çalışmasını sağlamak o zamanlar GPU’lar için zorlu bir işti. GPU’lar oldukça programlanabilir olmasına rağmen mevcut yazılımları sınırlıydı. Ancak bu durum daha çok yönlü işleme yeteneklerine olanak tanıyan birleşik gölgelendirici mimarisi GPU’larıyla değişti.

2006 yılında ATI ve NVIDIA, bilgisayarların ekran kartlarını grafikten daha fazlası için kullanmalarına olanak tanıyan yazılım araç kitlerini piyasaya sürdü. CTM ve CUDA adı verilen bu araç kitleri, grafik kartlarının bilimsel ve veri işleme görevlerindeki gücünü ortaya çıkarmayı amaçlıyordu. Ancak bilimsel topluluğun asıl ihtiyacı olan şey, CPU’ları ve GPU’ları tek bir varlık olarak ele alabilecek kapsamlı bir paketti. Bu ihtiyaç, 2009 yılında Apple tarafından geliştirilen ve daha sonra Khronos Grubu tarafından benimsenen bir yazılım platformu olan OpenCL’in piyasaya sürülmesiyle karşılandı. OpenCL, günlük karşılaştığımız grafiklerin dışında genel amaçlı bilgi işlem için GPU’ların kullanılmasına yönelik standart platform haline geldi.

Bugüne kadar Technopat olarak binlerce inceleme yayınlasak da teknoloji incelemeleri dünyasında süper bilgisayarların iddia ettikleri kadar iyi performans gösterip göstermediğini test eden pek fazla insan yok. Ancak 1990’lı yılların başından beri devam eden TOP500 adında bir proje var. Almanya’daki Mannheim Üniversitesi tarafından yönetiliyor ve yılda iki kez dünyanın en güçlü 10 süper bilgisayarını sıralayan bir liste yayınlıyorlar.

2010 yılında listeye grafik işlem birimlerine sahip ilk süper bilgisayarlar dahil edildi. Bu sistemlerden Nebulae ve Tianhe-1 adı verilen ikisi Çin’deydi. Nebulae, NVIDIA’nın GeForce GTX 470 ekran kartına benzeyen Tesla C2050 yongasını kullandı. Tianhe-1 ise AMD’nin Radeon HD 4870 yongasını kullandı. Bu GPU’lar Nebulae’nin saniyede 2.984 trilyon kayan nokta işlemi (TFLOPS) teorik en yüksek performansına sahip olmasıyla süper bilgisayarların bilgi işlem gücünün artmasına yardımcı oldu.

AMD’nin daha iyi işlem performansı sunmasına rağmen NVIDIA, yazılım desteği nedeniyle (şaşırmadık) üst düzey GPGPU (Grafik işlemci biriminde genel amaçlı hesaplama) için tercih edilen satıcıydı. NVIDIA’nın CUDA’sı hızlı bir gelişim sürecinden geçerken AMD OpenCL’e güvenmek zorunda kaldı. Intel’in Xeon Phi işlemcisi de pazara CPU-GPU hibriti olarak girdi ancak NVIDIA Tesla C2050 hız, güç tüketimi ve genel üstünlük açısından onu geride bıraktı.

AMD, Intel ve NVIDIA’nın GPGPU alanındaki rekabeti zamanla ikonik bir hâle bürünecekti. Çünkü farklı güçlere sahip modeller yaratmaya çalışıyorlar. Bir model daha fazla işlem çekirdeğine sahip olabilirken, bir diğeri daha yüksek saat hızına sahip olabilir ve bir diğeri daha iyi bir önbellek sistemine sahip olabiliyor. GPU’lar SIMD performansı nedeniyle belirli görevleri normal bir CPU’dan daha hızlı gerçekleştirebilir. Ancak binlerce CPU birbirine bağlandığında, GPU’lar kadar güç verimli olmasa da yine de etkili olabiliyorlar.

CPU’lar çeşitli bilgi işlem türleri için hâlâ önemli ve birçok süper bilgisayar AMD veya Intel işlemcileri kullanıyor. Örneğin Tianhe-1 süper bilgisayarında Radeon HD 4870 GPU kullanılırken, AMD’nin 12 çekirdekli Opteron 6176 SE CPU’su da kullanılıyordu. CPU yaklaşık 140 watt güç tüketiyordu ve teorik olarak 220 GFLOPS’a ulaşabiliyordu; GPU ise yalnızca 10 watt ek güç karşılığında ve daha düşük bir maliyetle 1.200 GFLOPS’luk performansla zirvedeydi.

Birkaç yıl sonra sadece süper bilgisayarlar değil, diğer bilgisayarlar da birçok hesaplamayı aynı anda gerçekleştirmek için GPU’ları kullanmaya başladı. NVIDIA yine olaya el atarak GPU’ların bilimsel ve diğer amaçlarla sanallaştırılmasına olanak tanıyan bir hizmet olan GRID platformunu tanıttı. Başlangıçta GRID, bulut tabanlı oyunlar için yaratılmıştı ancak güçlü ve uygun fiyatlı GPU’lara olan talebin artması nedeniyle bu geçişin gerekli olduğu ortaya çıktı. NVIDIA’nın yıllık teknoloji konferansında GRID’in farklı sektörlerdeki mühendisler için önemli bir araç olduğunu sergilediler. Aynı etkinlik sırasında NVIDIA, sonradan çıkacak olan Volta adlı mimariye de bir göz attı. Çok fazla ayrıntı vermediler ancak Volta’nın tüm NVIDIA pazarlarında kullanılan bir başka çip olması bekleniyordu.

Bu sırada AMD oyun odaklı Radeon serisinin yanı sıra FirePro ve Radeon Sky gibi sunucu tabanlı kartlarda Graphics Core Next (GCN) tasarımını kullanıyordu. FirePro W9100’ün 32 bit kayan nokta hesaplamalarında 5,2 TFLOPS performansıyla zirveye sahip olması rekabeti arttırıyordu. Ancak konu yüksek hassasiyetli kayan nokta matematiğine (FP64 veya üzeri) geldiğinde GPU’ların sınırlamaları vardı. 2015 yılında CPU kullananlara kıyasla GPU kullanan yalnızca birkaç süper bilgisayar vardı. 2016 yılında NVIDIA’nın Pascal mimarisini tanıtmasıyla her şey değişti. NVIDIA’nın yüksek performanslı bilgi işlem için özel olarak tasarlanmış ilk GPU’suydu. Bu tür hesaplamalara ayrılmış yaklaşık 2.000 çekirdekle FP64 yeteneklerinde önemli bir gelişme sağlandı.


Tesla P100 Kaynak: ComputerBase

Tesla P100, 9 TFLOPS’un üzerinde FP32 ve yaklaşık 4,5 TFLOPS FP64 performansı sunmasıyla ciddi anlamda güçlüydü. Vega 10 yongasını kullanan AMD Radeon Pro W9100, FP32’de %30 daha hızlı, FP64’te ise %800 daha yavaştı. O dönemde Intel, düşük satışlar nedeniyle Xeon Phi işlemcisiyle ilgili çalışmaları durdurmayı düşünüyordu. Ancak bir yıl sonra NVIDIA, Volta adında yeni bir işlemci piyasaya sürdü. NVIDIA’nın yalnızca yüksek performanslı bilgi işlem ve veri işleme pazarlarıyla ilgilenmediğini, aynı zamanda başka bir pazarı da hedeflediğini gösterdi.

Derin Öğrenme, bir Yapay Zeka türü olan Makine Öğreniminin bir parçasıdır. Verilerden bilgiyi anlamak için sinir ağları adı verilen karmaşık matematiksel modelleri kullanır. Örneğin, bir görüntünün belirli bir hayvanı gösterme olasılığını belirleyebilir. Bunu yapmak için modelin, o hayvanın birçok görüntüsünü ve hayvanı göstermeyen diğer görüntüleri göstererek eğitilmesi gerekir. Derin öğrenmede kullanılan matematik, matris ve tensör hesaplamalarına dayanır. Geçmişte bu tür çalışmalar yalnızca süper bilgisayarlarla mümkündü ancak GPU’lar buna çok uygun hale geldi.

NVIDIA, derin öğrenme pazarında öne çıkmasını sağlamak için Volta mimarisine tensör çekirdekleri adı verilen bir özellik ekledi. Bu çekirdekler birlikte çalışan ancak sınırlı yeteneklere sahip mantık birimleriydi. Volta mimarisini kullanan GV100 GPU’da 512 tensör çekirdeği bulunuyordu. Bu tensör çekirdeklerinin her biri, bir saat döngüsünde 64 matris işlemi gerçekleştirebiliyordu. Matrislerin boyutuna ve kullanılan sayıların türüne bağlı olarak Tesla V100 kartı bu tensör hesaplamalarında teorik olarak saniyede 125 TFLOPS performansına ulaşabiliyordu.

Başlangıçta Volta çoğunlukla süper bilgisayarlar gibi niş pazarlarda kullanılıyordu. Ancak NVIDIA daha sonra tüketici ürünlerine tensör çekirdeklerini ekledi ve görüntü kalitesini artırmak için bu çekirdekleri kullanan DLSS (Derin Öğrenme Süper Örnekleme) adı verilen bir teknoloji geliştirdi. Bu hamle NVIDIA’nın GPU hızlandırmalı derin öğrenme pazarına bir süreliğine hakim olmasına yardımcı oldu.

Bunun sonucu olarak, NVIDIA’nın veri merkezi bölümü önemli bir gelir artışı yaşadı. 2017 mali yılında gelirler %145 arttı, bunu 2018 mali yılında %133 ve 2019 mali yılında %52 artış izledi. Mali yılın sonunda yüksek performanslı bilgi işlem (HPC), derin öğrenme ve diğer alanlara yönelik satışlar 2,9 milyar dolara ulaştı. Ancak daha sonra Nvidia’nın yapay zeka girişimlerine yönelik pazarda patlama yaşandı. 2023 yılının son çeyreğinde şirketin toplam kazancı, bir önceki yıla göre %265 oranında kayda değer bir artışla 22,1 milyar dolara ulaştı. Bu büyümenin büyük kısmı NVIDIA’nın yapay zeka ile ilgili girişimlerinden geldi ve 18,4 milyar dolar gelir elde etti.

Siz de aşinasınız işin içine para girdiğinde rekabet doğaldır. NVIDIA şu anda grafik işlem birimlerinin lider sağlayıcısı ancak diğer büyük teknoloji şirketleri de ilerleme kaydediyor. Örneğin Google, kendi tensör işleme çiplerini geliştirdi ve bunları bir bulut hizmeti aracılığıyla kullanıma sundu. Amazon, AWS Graviton adlı özel CPU’su ile aynı şeyi yaptı. Öte yandan AMD, GPU bölümünü biri oyun (RDNA) ve diğeri bilgi işlem (CDNA) olmak üzere iki ürün grubu halinde yeniden yapılandırdı.

Gelişmeler muhtemelen performansı, verimliliği ve ışın izleme gibi özel özellikleri iyileştirmekten ibaret olacak. Teknoloji ilerledikçe, yapay zeka ve makine öğrenimi, sanal gerçeklik, artırılmış gerçeklik ve GPU’ların paralel işleme yeteneklerinden yararlanabilecek diğer hesaplama açısından yoğun uygulamalar gibi alanlarda gelişmeler göreceğiz.

Temel tasarımları yüksek düzeyde optimize edildikleri ve gelecekte pek değişmeyecekleri bir noktaya ulaştı. Olabilecek herhangi bir iyileştirmenin de bu çiplerin yarı iletken üretim teknikleri kullanılarak nasıl yapıldığına ilişkin ilerlemelerle alakalı olacak. GPU’ları daha iyi hâle getirmek için ya daha fazla mantık birimi ekleyecekler ya da daha yüksek bir saat hızında çalışmasını sağlayacaklar.

GPU’ların tarihi boyunca yeni özelliklerin dahil edildiği birkaç örnek olsa da en önemli değişikliklerden biri birleşik gölgelendirici mimarisine geçiş olsa gerek. Bu mimari GPU’ların farklı hesaplama türlerini daha verimli bir şekilde işlemesine olanak sağladı. Dolayısıyla bir değişim olacaksa bu değişimin odak noktası bu GPU’ların farklı uygulamalarda ve senaryolarda nasıl kullanıldığıyla ilgili olacak.

İşte böyleydi GPU’lar oyun amaçlı kullanımdan dünya çapında iş istasyonları, sunucular ve süper bilgisayarlar için evrensel hızlandırıcılara dönüştü. Her gün milyonlarca kişi tarafından bilgisayarlarda, telefonlarda, TV’lerde ve yayın cihazlarının yanı sıra ses ve görüntü tanıma, müzik ve video önerileri gibi hizmetlerde kullanılıyorlar. GPU’lar uzun süre hesaplama ve yapay zeka için ana araç olmaya devam edecek.

  • Ana Kaynak

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir