Exascale süper ( exascale işlem İngilizce) olan bilgisayar tipi süper bir mimariye göre çalışan ağır paralel olan ve işlem gücü 10 aşan 18 flop . Makine, gerçekleştirilecek görevleri, her biri daha sonra bir işlemci tarafından eşzamanlı olarak gerçekleştirilen milyonlarca alt göreve ayırır .
2020'de bir Exascale makinesi yok . Bu seviyeye ulaşmak için, BT sistemlerinin farklı alanlardaki zorluklarla nasıl başa çıkılacağı konusunda tam bir revizyona ihtiyacı olacak.
Amerika Birleşik Devletleri, Avrupa, Çin ve Japonya'daki programlarla bir güç yarışı sürüyor. Bu bilgi işlem kapasitesine sahip ilk teslimatlar 2021 için Cray tarafından açıklandı .
Eksaflopik süper bilgisayarın misyonları, toplumumuzun çeşitli sorunlarının araştırılması ve geliştirilmesine yönelik olacaktır.
Süper bilgisayar exascale ( exascale computing ), 10 18 flop (bir exaflop = saniyede kayan noktada bir milyar milyar işlem ) işlem gücüne sahip süper bilgisayarlardır ( Yüksek Performanslı Hesaplama veya HPC ). Bu makineler , her biri yüksek bir saat frekansı ile karakterize edilen ve birkaç hesaplama çekirdeğinden oluşan, güçlü bir şekilde bağlanmış mikroişlemcilerden oluşan bir koleksiyondur . Yüksek performanslı süper bilgisayarlar tasarlamak için, üreticiler aynı anda mikroişlemci sayısı, çekirdek sayısı, saat frekansı ve grafik işlemcileri arasındaki ilişki üzerinde oynarlar . HPC'nin arkasındaki temel fikir, karmaşık bir denklemin birden çok bölümünü aynı anda hesaplamak için birden çok işlemciye dağıtmayı içeren paralel hesaplamadır . Bir süper bilgisayar binlerce düğümden oluşur; bir düğüm, birkaç mikroişlemcinin bir araya getirilmesinden oluşan temel yapı taşıdır. Yüksek bilgi işlem kapasitesi, buna göre petabaytlara ulaşan depolama alanı gerektirir ( örneğin , on petabayt IBM Zirvesi ). En yüksek hıza ek olarak , verimli ve verimli kullanımını kolaylaştıran bir yazılım ortamına da ihtiyaçları var .
Eksaflopik bir bilgisayar sistemi oluşturmanın araştırma ve geliştirme maliyetlerinin, birçok uzman tarafından bir milyar ABD dolarından fazla olduğu ve on milyonlarca dolarlık yıllık işletim maliyeti ile tahmin edilmiştir .
Süper bilgisayarların iki ana uygulaması Yüksek Performanslı Hesaplama ( CHP ) ve karmaşık veri analizidir . Başlangıçta süper bilgisayarların kullanımı , HPC sistemlerinin muazzam maliyeti nedeniyle basit simülasyonlar , mühendislik , petrol ve gaz gibi belirli özel uygulamalarla sınırlıydı . Daha sonra veri madenciliği, iklim araştırması, sağlık, otomotiv , fizik , astrofizik , hesaplamalı akışkanlar mekaniği ve moleküler nanoteknoloji gibi çeşitli alanlara genişledi . Bu gelecek araçları, içinde yaşadığımız dünyaya dair anlayışımızı geliştirmemize yardımcı olmak için geniş bir bilimsel alan yelpazesinde keşiflerin yapılmasını sağlayacaktır.
Bazı bilimsel problemlerin anlaşılmasındaki gelişmeler genellikle bilgisayar biliminin evrimi ile ilişkilendirilir . Petascale sistemlerden daha üstün yetenekler, bilim insanlarının modelleri tasarlamasına ve karmaşık problemlerin simülasyonlarını çalıştırmasına yardımcı olacaktır. Sayısal simülasyon bilimsel araştırma tamamlayıcı teori ve deney önemli bir süreçtir. Aynı zamanda birçok endüstriyel sektörde tasarım ve üretim döngülerinde paydaş konumundadır. Bu makineler, çok disiplinli tasarım ve optimizasyona izin vererek prototip oluşturma süresini ve maliyetlerini azaltır .
Amerika Birleşik Devletleri, Çin, Avrupa ve Japonya gibi liderler, en güçlü makineler için birbirleriyle rekabet ediyorlar. Sorunlar egemenlik politikası ve bireysel ve toplu güvenlik ile ilgilidir. Enerji, doğal risk önleme ve savunma politikaları, simülasyon ve yüksek performanslı hesaplamanın katkılarına dayanmaktadır.
CMOS ( Tamamlayıcı Metal Oksit Yarıiletken ) devre performansı etkin mikroelektronik sabit maliyetle katlanarak büyür. Tek işlemci performansındaki olağanüstü üssel büyümenin sonu, tek işlemcinin bilgi işlemdeki hakimiyetinin sonunu işaret ediyor . Sıralı hesaplama, paralelliğe yol açıyor.
Yüksek performanslı bilgi işlem, temel bilgi işlemle aynı yarı iletken gelişmelerinden yararlanmış olsa da , HPC sistemlerinin kalıcı performansı, artan sistem boyutu ve paralellik nedeniyle daha hızlı gelişmiştir. Sistemdeki çekirdek sayısının birkaç milyon işlem çekirdeğine ulaşması bekleniyor.
1980'lerde, vektör süper hesaplama, Seymour Cray tarafından tasarlanan aynı adı taşıyan adlandırılmış sistemlerin kanıtladığı gibi, yüksek performanslı hesaplamaya egemen oldu . 1990'larda, Thinking Machines Corporation , Silicon Graphics ve diğerleri tarafından üretilen, büyük ölçüde paralel (MPP: Massively Parallel Processing ) ve paylaşılan belleğe sahip çok işlemcili (SMP: Shared Memory Multiprocessors ) yükselişini gördü . Buna karşılık, ürün kümeleri ( Intel / AMD x86) ve özel olarak tasarlanmış işlemciler ( IBM'in BlueGene'si olarak ) 2000'lere hakim oldu . Önümüzdeki on yıl boyunca, bu kümeler Intel yardımcı işlemcileri ve Nvidia grafik işlem birimleri ( GPU'lar ) biçimindeki bilgi işlem hızlandırıcılarıyla tamamlandı ; ayrıca yüksek hızlı, düşük gecikmeli ara bağlantılar ( Infiniband gibi ) içerirler . Depolama alanı ağları ( SAN'lar ) kalıcı veri depolaması için kullanılır ve her düğümdeki yerel diskler yalnızca geçici dosyalar için kullanılır. Bu donanım ekosistemi, minimum maliyet yerine öncelikle performans için optimize edilmiştir. Üst kısmında kümenin donanım , Linux sağlayan sistem paralel (örneğin dosya sistemleri tarafından desteklenen servisleri, Luster ) ve (örneğin PBS gibi toplu programlayıcıları slurm paralel işleri yönetmek için). MPI ve OpenMP , düğümler ve internodlar arasındaki paralellik için , optimize edilmiş kitaplıklar ve bir yardımcı işlemci olarak kullanılmak üzere araçlar ( CUDA ve OpenCL gibi ) için kullanılır. Dijital kitaplıklar ( LAPACK ve PETSc gibi) ve alana özgü kitaplıklar yazılım yığınını tamamlar . Uygulamalar genellikle FORTRAN , C veya C ++ ile geliştirilir .
İki tür mimari tasarım vardır:
Her zamankinden daha büyük ve daha güçlü süper bilgisayarlar inşa etme konusundaki küresel yarış, yıllar içinde çok sayıda farklı mimarinin yaratılmasına yol açtı ve çeşitli "devrimler" ile sonuçlandı. Bu yarış, şimdiye kadar üretilen en güçlü süper bilgisayarların maksimum kayan nokta performansına göre sıralandığı TOP500 Süper Bilgisayar Listesi'nde yıllar içinde kaydedildi ( TOP500 web sitesi ). Genel olarak, süper bilgisayarların hızı, genel amaçlı bilgisayarlar gibi MIPS (saniyede milyonlarca talimat) değil , FLOPS ile ölçülür ve karşılaştırılır . Bir bilgisayar sisteminin genel performansını ifade etmek için , bilgisayarın sayısal problemleri çözme hızını tahmin etmeyi mümkün kılan Linpack kıyaslamasını kullanıyoruz . Bu referans, endüstride yaygın olarak kullanılmaktadır. FLOPS ölçümü, bir işlemcinin teorik kayan nokta performansına ( TOP500 listelerinde " Rpeak " ) veya Linpack kıyaslamasının türevi (TOP500 listesindeki "Rmax") temelinde belirtilir .
Linpack'in performansı, bazı gerçek dünya sorunları için bir gösterge sağlar, ancak, örneğin bant genişliğinin dikkate alınmasını veya hatta G / Ç sistemlerini gerektirebilecek diğer birçok süper bilgisayar iş yükünün işleme gereksinimlerini tam olarak karşılamayabilir .
Exascale düzeyine ulaşmak için , BT sistemlerinin maliyet, güç, hesaplama verimliliği, esneklik ve hata toleransı , ağ üzerinden veri hareketi ve son olarak programlama modelleri gibi alanlardaki zorlukların nasıl üstesinden gelineceği konusunda eksiksiz bir revizyona ihtiyacı olacaktır .
1990'lardan bu yana, mikroişlemci performansındaki hızlı büyüme üç temel teknolojik etmen sayesinde mümkün olmuştur: transistörlerin hızının ölçeklendirilmesi, mikro mimari teknikleri ve önbellek hafızaları . 2004 civarında, termal sınırlamalar frekans ölçeklendirmesine (Dennard ölçeklendirmesi olarak da bilinir) son verdiğinde çipler hızlanmayı durdurdu. Minyatürleştirmedeki ilerleme , büyük paralelliğin hizmetine sunuldu . Süper bilgisayarların gücünü artırmak için trend, işlemcilerdeki bilgi işlem çekirdeklerinin çoğalması yönünde .
Bir bilgi işlem düğümünün mimarisi için, bazıları normalde video oyunlarının gerçekçi bir şekilde oluşturulması için kullanılan grafik işlemcilerinin ( GPU ) kullanımını tercih eder . Bu işlemcilerin gücü, tüm birimlerin aynı görevi paralel olarak, ancak farklı veriler üzerinde yürüttüğü, basitleştirilmiş bir mimariye, SIMD'ye ( Tek Komut Çoklu Veri için ) göre organize edilmiş birkaç yüz hesaplama çekirdeğinin kullanımına dayanır . Diğerleri bunun yerine, performansı 64 yerine 512 bitlik yazmaçlar üzerinde çalışan "vektör" birimlerinin eklenmesiyle artırılacak olan çok sayıda genelci çekirdeğin - işlemci başına yüz - paralelliğine güveniyor. Böylece döngü başına sekiz kat daha fazla hesaplama yapılır. Intel tarafından önerilen bu yeni mimariye "MIC" ( Birçok Tümleşik Çekirdek ) adı verildi. GPU'lar veya MIC'ler bu nedenle hesaplama hızlandırıcı rolünü oynar ve enerji verimliliğini artırır .
National Strategic Computing Initiative (NSCI) stratejik araştırma eksenleri önermektedir, bunlardan ilki bir exascale bilgisayar sisteminin sunumunu hızlandırmaktır . Bu teknoloji sürekli gelişmelere dayanarak elde edilebilir transistörler CMOS gibi ve daha yeni teknolojilerin fotonik için silikon ve entegrasyon 3D belleğinde . Yüksek performanslı düşük voltajlı bir cihazın ortaya çıkması, hesaplamayı sınırlayan enerji ve ısı üretiminin kısıtlamalarını önemli ölçüde azaltabilir.
Exascale hesaplama rejiminde , bellek ve FPU ardışık düzeni arasında veri taşımanın enerji maliyetinin, kayan noktalı bir işlemin maliyetini aşması beklenir . Bu, işlemciler arasında veri alışverişini sağlamak için enerji açısından verimli, düşük gecikme süresi ve yüksek bant genişliğine sahip ara bağlantılar gerektirir . Hafızalar ve ara bağlantılar gibi çeşitli işlevlerin tek bir elektronik bileşene entegre edilmesi gerekecektir . Amaç, bileşenler arasındaki fiziksel mesafeyi azaltmak ve hesaplama öğelerinin depolama ile fiziksel yerelliği tam olarak kullanmasını sağlamaktır .
HafızaVeri hareketini en aza indirmek ve güç tüketimini azaltmak, işlemci belleği, yığınlanmış bellek ve geçici olmayan bellek yaklaşımları dahil olmak üzere yeni bellek teknolojilerine de bağlıdır .
SRAM bir mantık ile entegre edilebilir CMOS göre mantıksal bellek, büyük miktarlarda daha düşük maliyetli entegre edilebilmesi için, yüksek performanslı DRAM ve flaş aynı ilgili çip .
Arabağlantıİletişim ağı bir süper bilgisayar düğümleri binlerce birbirlerine bağlar. Eksaflopik makineler için, bu sefer onları petaflopik makinelerden on kat daha fazla düğüm bağlamak gerekecektir. Bu BT öğelerinin birbirine bağlanma şekli ( ağ topolojisi ), birçok performans özelliği üzerinde güçlü bir etkiye sahiptir. Torus, klasik ağaç veya Yusufçuk gibi paralel sistemler oluşturmak için birçok olası topoloji vardır . Exascale'de etkili olabilmek için iletişim, hesaplamalara adanmış işlemcilerin çekirdeklerini dahil etmeden tamamen özerk bir şekilde gerçekleştirilmelidir. Buradaki zorluk, bilgi işlem düğümleriyle yakından entegre edilmiş yeni ara bağlantı ağları mimarileri geliştirmektir.
SoğutmaBir bilgisayar tarafından tüketilen elektrik enerjisi büyük ölçüde ısıya ( Joule etkisi ) dönüştürülür ve bu da enerji yoğun soğutma sistemlerinin kurulumunu gerektirir. Soğutma altyapı tipik konuşlandırılmış HPC sistemlerinin maksimum güçler de çalışacak şekilde tasarlanmıştır. Tasarımcılar daha verimli sistemler tasarlamak için yenilik yapmalıdır.
İdeal olarak, sistemler, insan müdahalesi olmaksızın donanım ve yazılım arızalarına uyum sağlayan ve arızalı bileşenler periyodik olarak değiştirildiği için, arıza sayısı performans hedeflerini karşılamak için çok büyük olana kadar çalışmaya devam eden homeostatik olacaktır., HPC sistemi asla bozulmaz. kullanıcılar fark eder.
Zaman içinde HPC sistemlerindeki karmaşıklık ve düğüm sayısındaki artışla birlikte, uygulamaların çalışma zamanı hatalarıyla karşılaşma olasılığı önemli ölçüde artmıştır. Birkaç milyon bilgi işlem çekirdeği içerecek olan exaflopic makineler, saat başına birkaç arızaya maruz kalacaktır. Düzenli bileşen arızalarına karşı sistemik direnç gerekli olacaktır.
Kalıcı hatalar olarak da bilinen donanım hataları, Yazılım hatalarından farklı bir azaltma stratejisine bağlıdır . Bu hatalar, fazlalık veya yedek bileşenler eklenerek kısmen düzeltilebilir. Örneğin, etkin olmayan ancak arızalı herhangi bir işlemciyi değiştirmek için görevlendirilebilecek ek çekirdekler oluşturmak.
Hata oranı, uygulama kesintileri arasındaki ortalama süreyi etkileyen geçici hataları ifade eder. Tanımlama ortalama süre (MTTI) donanım veya yazılımda bir esnek mekanizması tarafından uygulamadan gizli muhalefet uygulama tarafından hataların düzeltici işlem gerektiren herhangi başarısızlık.
Tüm kontrol noktası tabanlı protokoller , sistemin çalışma durumunu periyodik olarak kaydetmeye ve bir arıza meydana geldikten sonra önceki hatasız durumdan yeniden başlatmaya dayanır.
Daniel Dauwe, Sudeep Pasricha, Anthony A. Maciejewski ve Howard Jay Siegel, kontrol noktaları kullanan dört HPC esneklik protokolünün bir karşılaştırmasını sağlar:
Kontrol İşaretleme ve Yeniden BaşlatmaKontrol noktası, HPC'ler tarafından en çok kullanılan esneklik tekniğidir. Bir depolama aygıtında (paralel dosya sistemi gibi) çalışan tüm programların durumunu not etmekten oluşur. Bu, sistemi düzenli aralıklarla kapatarak yapılır.
Çok Düzeyli Kontrol İşaretlemeFarklı arıza türleri bir bilgisayar sistemini farklı şekillerde etkileyebileceğinden, tüm arızalar sistemin bir kontrol noktasından yeniden başlatılmasını gerektirmez. Çok Seviyeli Kontrol İşaretleme, birden fazla kontrol noktası seviyesi sağlayarak bundan yararlanır. Her seviye, kontrol noktasına kadar geçen süre, yeniden başlatma ve sistemin hesaplamaya devam edebileceği arızanın ciddiyet seviyesi arasında bir değiş tokuş sunar.
Mesaj GünlüğüBu teknik , sistemin tüm hafızalarına dağıtılacak programların yürütülmesine ilişkin yakalamalar oluşturmak için süreçler arasında gönderilen mesajların kaydedilmesinden oluşur . Bir arıza durumunda bu sağlayacak başarısız düğüm kurtarma için başka düğümün belleğinde saklanan mesajlar kullanmak. Bu yöntem, yeniden hesaplama süresini kısaltma ve enerji tasarrufu avantajına sahiptir, çünkü yalnızca başarısız olan düğüm aktiftir, sistemin geri kalanı kurtarılıncaya kadar devre dışı kalabilir.
YedeklilikArtıklık tekniği, bir sistemin güvenilirliğini artırmak için kullanılır. Bu yöntem, donanım veya yazılım düzeyinde uygulanabilir ve aynı kod parçasının birden çok kopyasının yapılmasına izin verir. Olumsuz yanı, ek kaynakların kullanılmasıdır.
Paralellik bilgisayar performansında bir devrim yarattı. Bu, 1990'larda tanıtıldı ve hedeflenen Exascale bilgisayar sistemlerini ele almak için hala geliştirilme aşamasındadır .
Birkaç milyon bilgi işlem çekirdeği ile, zorluk hesaplamaları en uç noktaya paralelleştirmek, yani bunları işlemcilerin çekirdeklerinin yürüttüğü çok sayıda alt hesaplamaya bölmek olacaktır. Makinelerin verimli olmasını sağlamak için görevlerin çekirdekler arasında eşit olarak dağıtılması gerekecektir. Bu, muazzam performans elde etmek için düşük güçlü paralel programlamaya yeni bir yaklaşım gerektiren programlama açısından sorular ortaya çıkarır . Bu süreci idare edebilecek ve geliştiricinin çabalarını basitleştirirken dinamik ve ince taneli paralelliği destekleyebilecek daha etkileyici programlama modellerine ihtiyaç vardır . Gelecekteki bu tür büyük ölçüde paralel ve heterojen sistemlerin programlanması önemsiz olmayacak ve programlama modelleri ve yürütme sistemleri buna göre uyarlanmalı ve yeniden tasarlanmalıdır.
Araştırmacılar Usman Ashraf, Fathy Alburaei Eassa, Aiiad Ahmad Albeshri ve Abdullah Algarni , büyük ölçekli heterojen küme sistemleri için yeni bir devasa paralel programlama modeli olan hibrit bir MPI + OMP + CUDA (MOC) sunuyor . "Heterojen çok işlemcili ve hızlandırılmış Nvidia GPU'lardaki en iyi uygulamalara kıyasla% 30 -% 40'a varan asimptotik hızlanma" olduğunu duyurdular .
ECOSCALE projesi, yeni bir enerji verimli heterojen hiyerarşik mimari, hibrit bir MPI + OpenCL programlama ortamı ve yüksek ölçekli makineler için bir yürütme sistemi için bütünsel bir yaklaşım sağlamayı amaçlamaktadır .
Dan beri Kasım 2017, dünyanın en hızlı 500 süper bilgisayarı Linux tabanlı işletim sistemlerinde çalışıyor .
Birkaç milyon bilgi işlem çekirdeği içerecek olan exaflopic makineler, saat başına birkaç arızaya maruz kalacaktır. Bu nedenle yazılım, verilerin hareketini mümkün olduğunca azaltırken, tüm hesaplama çekirdekleri arasında gerçekleştirilecek görevleri olabildiğince dağıtabilmelidir. Ayrıca, hesaplamaların yürütülmesi sırasında , makinenin bir bileşeni arızalandığında kaybolmaması için verileri kaydetmeleri gerekecektir .
Alt görevleri arasında çok sayıda değişim veya senkronizasyon bulunan uygulamaların ince taneli , yani ince taneli olduğu söylenir , aksine çok az değişim ve senkronizasyona sahip olanlara kaba taneli , yani kaba- taneli. Exascale hesaplama , en az iki alanda algoritmalar için büyük bir talep gerektirecektir: hesaplamaları verimli bir şekilde gerçekleştirmek için yerel veri miktarlarını artırma ihtiyacı ve bu sistemler artan sayıda desteklediği için çok daha yüksek düzeyde ince paralellik elde etme ihtiyacı öğretim konuları . Sonuç olarak, paralel algoritmalar bu ortama uyum sağlamalı ve yeni donanımın hesaplama yeteneklerinden yararlanmak için yeni algoritmalar ve uygulamalar geliştirilmelidir.
Yeni yazılım ve işletim sistemi tasarımlarının, heterojen kaynakların ve önbellekte tutarlı olmayan bellek hiyerarşilerinin yönetimini desteklemesi, iş planlama ilkeleri üzerinde daha fazla kontrol ile uygulamalar ve yürütme sağlaması ve iş planlama ilkelerini, küresel ad alanlarını yönetmesi gerekecektir . Ayrıca, programlayıcıların hesaplamaları işleve özgü hızlandırıcılarla eşleştirmelerine ve uygulamaların termal zarflarını ve enerji profillerini yönetmelerine olanak tanıyan daha hassas enerji yönetimi ölçüm, tahmin ve kontrol mekanizmaları göstermelidirler .
Dijital hesaplama araçları geliştiren uygulamalı matematik uzmanları ile bu yeni büyük ölçüde paralel mimarilerin malzeme özelliklerinden en iyi şekilde yararlanmayı mümkün kılmak için yazılım tasarlayan yüksek performanslı hesaplamada uzmanlaşmış bilgisayar bilimcileri arasında bir işbirliği ortaya çıkmalıdır .
C ve FORTRAN dışındaki yeni programlama dilleri ve modelleri faydalı olacaktır. Programlama özellikleri zaten (örneğin mevcut program modellerde dolaylı bir etkisi olmuştur Chapel ve X10 bulundu OpenMP ). İkincisi, aşağıdaki örnekler için uzantılardan yararlandı: görev paralelliği, hızlandırıcılar ve iş parçacığı benzeşimi . Dile özgü alan (için DSL ) ( Domain Specific Language ) dilinin mevcut tabanını genişletme yolunu temsil eden, özel bir uygulama etki alanında uzmanım. Entegre DSL'ler, standart diller için derleyicilerin gelişmiş analiz ve dönüştürme yeteneklerinden yararlanmanın pragmatik bir yoludur .
Yük dağılımı dikkate almak bir meydan okumadır. Yük dengeleme birimi, işlem yükünü mevcut bilgisayar sistemleri arasında dağıtır, böylece işlem işi minimum sürede yapılır. Yük dengeleme yazılım, donanım veya her ikisinin bir kombinasyonu ile uygulanabilir.
Exascale mimarilerinin gücünden yararlanmak için modelde önemli bir geliştirme, algoritmanın yeniden tasarlanması ve bilimsel uygulamaların yeniden uygulanması, exascale için uyarlanmış bir veya daha fazla programlama modeli tarafından desteklenmelidir . Bunlar homojen veya heterojen bir mimariye dayalı sistemler olacaktır. Bu nedenle, hem homojen hem de heterojen mimari sistemlerin üstesinden gelebilecek uyarlanabilir bir hibrit programlama modeline ihtiyacımız var.
Dokuz megawatt (MW) tüketim ve teorik tepe gücü yirmi yedi petaFLOPS ile 2012 yılında Oak Ridge Ulusal Laboratuvarlarında tanıtılan petaflopik süper bilgisayar Titan , yaklaşık dokuz milyon dolarlık bir elektrik faturası üretti. Altyapı kurulumu ve bakımı dahil çok yüksek maliyetler , bir süper bilgisayarın toplam sahip olma maliyetinde ( TCO ) baskın faktörler haline geliyor . Bu platformların yararlı ömürleri boyunca, tipik olarak üç ila beş yıllık enerji maliyeti, satın alma maliyetleriyle rekabet edebilir.
Güç Kullanım Etkinliği (PUE), veri merkezlerinin enerji verimliliğini değerlendirmek için iyi yapılandırılmış bir ölçüdür . PUE, sezgisel olarak, gerçek BT ekipmanına güç sağlayan bir tesise iletilen enerji oranını ölçer. Bu nedenle, bir veri merkezini daha enerji verimli hale getirmek ve dolayısıyla PUE değerini azaltmak için, enerji tüketimini etkileyen tüm faktörler ele alınmalıdır: soğutma altyapısı ( P soğutma ); Kaynak yönetimi ve uygulama planlaması ve optimizasyonuna ( P IT ) dağıtılan HPC sistemleri ; elektrik dağıtımı ve dönüşümü nedeniyle güç kayıpları ( P elektrik Kayıpları ); ve çeşitli enerji tüketimi P misc .
Bu bulgular, PUE'lerini azaltmak için HPC'lerin tasarımını ve dağıtımını da etkilemeye başladı.
Petaflop makinelerinde olduğu gibi aynı teknolojiye sahip bir Exascale süper bilgisayarı , yönetim ve tedarik maliyeti üzerinde hemen bir sonuçla birlikte 100 MW'dan fazla maksimum tüketime yol açacaktır . Onlarca megavatlık Exascale hesaplamanın gerektirdiği güç, birçok küçük işi destekleyen sistemlere kıyasla güç tüketimini yönetmeyi çok daha zor hale getirir.
Eksaflopik makineler tasarlamak için, bu platformların yüksek enerji tüketim maliyetlerini azaltabilmek için asıl zorluk ele alınmalıdır. Amerika Birleşik Devletleri Enerji Bakanlığı (US DoE), Intel, IBM ve AMD gibi HPC öncüleri , 25–30 MW düzeyinde bir Exascale makinesi için maksimum güç tüketimi limiti belirlemiştir . Örneğin 20 MW'lık bir hedef enerji tüketimiyle , ∼20 pJ / Op enerji verimliliği gerekli olacaktır.
Beklenen güç hedefine ulaşmak için , hem donanım tasarımındaki hem de entegrasyon sürecindeki bir değişikliğe bağlı olarak bilgisayar sisteminin enerji verimliliğinde önemli bir iyileşme olması gerekir .
Gelişmiş bilgi işlem ve veri analizinde liderlik için küresel rekabet Amerika Birleşik Devletleri, Avrupa, Çin ve Japonya'daki programlarla devam etse de ; aktif uluslararası işbirliği var. International Exascale Software Project (IESP), gelişmiş bilgi işlemde bunun bir örneğidir. Japonya, AB ve Amerika Birleşik Devletleri hükümetlerinden sağlanan fonların yanı sıra endüstri paydaşlarının katkılarıyla IESP, 2020 yılına kadar ultra yüksek çözünürlükte ve veri yoğun olarak bilim ve mühendislik araştırmalarına olanak sağlamak için kuruldu . IESP uluslararası ekibi gelişti. petascale / exascale sistemleri için ortak bir hesaplama ortamı planı .
Amerika Birleşik Devletleri, yüksek performanslı bilgi işlemin (HPC) araştırılması, geliştirilmesi ve kullanımında uzun süredir uluslararası bir liderdir. National Strategic Computing Initiative (NSCI) emriyle 2016 yılında bir dizi faaliyet doğdu ve bunlardan en önemlisi exascale computing girişimi (ECI). Bilim Ofisi ve Ulusal Nükleer Güvenlik İdaresi (NNSA) arasında bir ortaklık olan ABD Enerji Bakanlığı (DoE) tarafından yönetilmektedir . Amaç, laboratuvarlarına 2020'lerin başından ortasına kadar yüksek ölçekli hesaplama kapasitesi sağlamak için araştırma, geliştirme, satın alma ve dağıtım projelerini hızlandırmaktır .
ECI, BT kurulumlarının hazırlanmasından ve üç farklı exascale sisteminin satın alınmasından sorumludur :
2015 yılında, TOP500 sıralamasına göre, Çinli süper bilgisayar Tianhe-2 dünyanın en hızlısı oldu. 16.000 düğüm içerir. Her düğümün iki Intel Xeon işlemcisi ve üç Intel Xeon Phi yardımcı işlemcisi , "TH Express-2" adı verilen özel bir yüksek hızlı ara bağlantı vardır. Ulusal Savunma Teknolojisi Üniversitesi (NUDT) tarafından tasarlanmıştır.
2010 yılında Tianhe-1 hizmete girdi. Petrol arama, üst düzey ekipman üretimi, biyolojik tıp ve animasyon tasarımı gibi çeşitli görevleri yerine getiriyor ve yaklaşık 1.000 müşteriye hizmet veriyor.
Yüksek performanslı bilgisayarların yeni nesil milli planına göre, Çin gelişecektir bilgisayar exascale sırasında 13 inci Beş Yıllık Plan döneminde (2016-2020). Bilgisayar bilimi direktörü Liao Xiangke , "Tianjin Binhai Yeni Bölge hükümeti, Ulusal Savunma Teknolojisi Üniversitesi (NUDT) ve Tianjin Ulusal Süper Bilgisayar Merkezi proje üzerinde çalışıyor ve süper bilgisayarın adı Tianhe-3 olacak" dedi. NUDT okulu. Yeni makineler , Tianhe-1'den iki yüz kat daha hızlı bir hesaplama hızına ve yüz kat daha fazla depolama kapasitesine sahip olacak.
Avrupa Komisyonu ve 22 Avrupa ülkeleri “H2020” adlı bir Avrupa araştırma projesi ile HPC teknolojileri ve altyapıların geliştirme çabalarını birleştirmek niyetlerini ilan ettiler. Bu, exascale ve postexascale teknolojileriyle ilgilenen üç projeyi destekleyecektir :
Bu üç projenin kombinasyonu, 2020 yılına kadar bir HPC Exascale makinesinin tüm görüntüsünü kapsamayı hedefliyor .
İçinde Mayıs 2019, Fujitsu ve Japon araştırma enstitüsü Riken , 2021'de teslim edilmek üzere post-K süper bilgisayarın tasarımının tamamlandığını duyurdu. Yeni sistem, 512-bit ARMv8 -ASVE tabanlı A64FX işlemciye sahip olacak. Bu, Fujitsu tarafından exascale sistemler için tasarlanmış ve geliştirilmiş yüksek performanslı bir işlemcidir . Yonga bir ARM8 tasarımına dayanmaktadır. Bu işlemci, akıllı telefonların büyük bir çoğunluğunu donatıyor ve giriş-çıkışlara ve arayüzlere ayrılmış dört çekirdekle desteklenen 48 işlemci çekirdeği barındırıyor . Yonga başına 32 GB'a kadar bellek yönetebilir . Sistem, düğüm başına bir işlemci ve raf başına 384 düğüm veya raf başına bir petaflop ile donatılacaktır. Tüm sistem 150.000'den fazla düğümden oluşacaktır. Post-K, 2021 civarında, o zamandan beri donatılan K-Computer'ı başarılı olmalıdır.Eylül 2012RIKEN Araştırma Enstitüsü de Kobe .
AMD Research, Advanced Micro Devices , Department of Electrical and Computer Engineering ve Wisconsin-Madison Üniversitesi, exascale sistemleri oluşturmak için kullanılabilecek bir mimari hakkında kapsamlı bir çalışma sağlar : "A Conceptual Exascale Node Architecture (ENA), that is the Conceptual Exascale Node Architecture (ENA), that is the bir exascale süper bilgisayar için hesaplama bloğu . ENA, gelişmiş bir bellek sistemi ile birleştirilmiş bir Exascale Heterojen İşlemciden (EHP) oluşur . EHP, hızlandırılmış yüksek performanslı işlem birimi ( CPU + GPU ), 3D bellek geniş bant genişliğine entegre edilmiş ve BT exascale gereksinimlerini çok dengeli karşılamak için yığınlama matrislerinin ve yonga teknolojilerinin yoğun bir şekilde kullanılmasını sağlar .
Exascale makineler için ana yapı taşı olarak bir Exascale Node Architecture (ENA) . ENA, aşağıdaki yollarla exascale hesaplamanın gereksinimlerini karşılar :
GAFA (Google, Apple, Facebook ve Amazon) gibi telekom ve internet oyuncularının günlük olarak devasa miktarda veriyi yönetmesi gerekmektedir. Büyük veri merkezlerinde Bulut ve Büyük Veri ile güçlü bir şekilde bağlantılı olan yüksek performanslı bilgi işlem, bu büyük verilerin işlenmesinde yerini bulur.
Sayısal simülasyon bir çalışma nükleer silah ülkenin nükleer stok güvenli, emniyetli ve güvenilir olmasını sağlamak için sertifika ve değerlendirmeler bir süper bilgisayar kullanılarak ya da elde yapılabilir.
Bilgisayar exascale bilim adamları temel anlamalarını sağlamak kanser araştırmaları hızlandırmak moleküler anahtar protein etkileşimleri ve optimal tedavi stratejilerinin belirlenmesi kanser hastalarının kayıtları milyonlarca bilginin analizini otomatik hale. Ayrıca doktorların, ilaç yanıtlarını modelleyerek hasta için doğru tedavileri tahmin etmesine de olanak tanıyacak.
In biyoloji , ayrıntılı olarak uyuşturucu hücreyi ve hareket girmek nasıl daha iyi anlamak için yaşayan hücrelerin zarları işleyişini taklit etmek mümkün olacaktır. Günümüzde genom dizilimi , büyük miktarda genetik verinin işlenmesini ve depolanmasını gerektiriyor . Exascale bilgi işlem devam eden araştırma çabalarını desteklemek için gerekli gelişme olacaktır , biyologlar hesaplamalı. Karmaşık biyolojik süreçlerin yeni çok ölçekli çok fizikli modellerini etkinleştirmek için deneysel verilerin üretimine ayak uydurmak. Bilgisayar bilimi, biyolojiyi gözlemsel bir bilimden nicel bir bilime dönüştürmeye ve nihayetinde dönüştürmeye devam edecek.
Daha genel olarak, biyolojik ve biyomedikal zorluklar, dizilerin açıklamasını ve karşılaştırmasını, protein yapısının tahminini; moleküler simülasyonlar ve protein makineleri; metabolik yollar ve düzenleyici ağlar; tam hücre modelleri ve organları; ve organizmalar, ortamlar ve ekolojiler.
Gezegensel sistemin oluşumu , yıldız dinamikleri , kara deliklerin davranışı , galaktik oluşum ve baryonik ve varsayılan karanlık maddenin etkileşimi kadar çeşitli zamansal ve uzamsal ölçeklerde astrofiziksel fenomenlerin bilgisayar modelleri içgörü sağlamıştır. teoriler ve tamamlanmış deneysel veriler.
Kozmoloji , fizik yüksek enerjili ve astrofizik , evrenin evrimini anlamak yaratılması ve maddenin davranışını yöneten yasaları aramaya bilimin parçasıdır. Gelişmiş bilgisayar modellerine bağlıdırlar, bu nedenle exaflopic süper bilgisayar bu çeşitli araştırmalarda bir hızlandırıcı olacaktır.
HPC'ler , tehlikeli, pahalı, uzun ömürlü veya çok karmaşık olduklarında laboratuvarda gerçekleştirilemeyen deneyleri modelleme ve simülasyon yoluyla yeniden üretmeyi mümkün kılar . Sayısal simülasyon, Cummins'in daha hızlı ve daha düşük maliyetle daha iyi dizel motorlar üretmesini, Goodyear'ın daha güvenli lastikler tasarlamasını, Boeing'in yakıt açısından daha verimli uçaklar ve Procter & Gamble'ın yerli ürünler için daha iyi malzemeler üretmesini sağladı.
Amaç, KOBİ'lerin daha küresel fenomeni simüle etmelerini, deneyleri sınırlandırmalarını veya değiştirmelerini, test aşamasını kısaltmalarını veya bol ve heterojen verileri işlemelerini sağlamak için HPC'ye erişimi kolaylaştırmak ve teşvik etmektir. Yüksek performanslı bilgi işlem kullanımı, KOBİ'lerin rekabet gücüne yardımcı olur.
Nükleer füzyon önemli bir enerji kaynağı olabilir. Reaksiyonu bir nükleer reaktör içinde tetiklemek için en büyük zorluklardan biri, fenomenin açığa çıkardığı ısıyı makinenin tam ortasında tutmak olacaktır. Olaylar karmaşıktır ve işlenecek büyük miktarda veri üreten bir dizi matematiksel denklem gerektirir . Eksaflopik süper bilgisayarlarla sayısal simülasyonlar bu yönde önemli bir adım atmayı mümkün kılacaktır.
Güneş enerjisi elektrik enerjisine güneş ışığı daha verimli dönüştürmek malzemelerin keşfine daha verimli sayesinde yapılacaktır.
Rüzgar enerjisi tahmini simülasyon yeteneği sayesinde sanayi geliştirme zamanı motorları ve verimli türbinleri azaltmak için izin tasarım döngüsünü valide.
İklim değişiklikleri ve geçmişte, bugün ve geleceğin anlaşılması önemli bilimsel zorluklardan biridir XXI inci yüzyıl. Bu arayışta simülasyon vazgeçilmez bir araç haline geldi. Bu yaklaşım, aslında iklimi düzenleyen mekanizmaları daha iyi anlamayı ve böylece iklim değişikliği senaryolarında mevsimden birkaç yüzyıla kadar değişen zaman ölçeklerinde tahminler yapmayı mümkün kılıyor.
2018'de beş günlük tahmin, on yıl önceki dört günlük tahmin kadar doğruydu. Bu dikkate değer gelişme, yaklaşık beş petaFLOPS işlem gücü ile mümkündür. Bu tahminler, hükümetlerin, kamu ve özel sektörlerin insanları veya mülkleri planlamasına ve korumasına izin verir. Bu, her yıl milyarlarca dolar tasarruf sağlar.
Avrupa, 1980'lerden beri küresel orta menzilli hava tahminlerinin ön saflarında yer almaktadır.Birleşik Krallık Meteoroloji Ofisi ve Météo-Fransa , TOP500'de sınıflandırılan süper bilgisayarlara sahiptir . Météo-France, Bull ( Atos grubunun bir yan kuruluşu) tarafından geliştirilen ve 20,78 petaFLOPS teorik hesaplama gücüne sahip Sequana XH2000 platformunda 2020'nin sonunda bir süper bilgisayar planlıyor .
Eksaflopik hava tahmin modelleri, kasırgalar gibi şiddetli hava olaylarının zamanlamasını ve yörüngesini daha doğru ve hızlı bir şekilde tahmin edebilecektir. Bu, çok daha yüksek bir uzamsal çözünürlük sayesinde, daha fazla fiziksel unsur ekleyerek ve daha fazla gözlemsel veriyi asimile ederek mümkün olacak. Bu ilerlemeler, örneğin tahliyeler ve koruyucu önlemler için yeterli zaman sağlamak için gereklidir.
Hedeflerden biri, önümüzdeki yıllarda küresel hava ve iklim modellerinin 1 SYPD akış hızı ile 1 km yatay çözünürlükte çalışmasına izin verecek bir referans mimari geliştirmektir (2018'deki en iyi tahmin merkezleri, 10 ila 15 km uzamsal çözünürlük ). Kötü bir şekilde yeniden üretilen veya hatta mevcut iklim modellerinde bulunmayan küçük ölçekli olgular, yine de önemli bir rol oynar, bu nedenle hesaba katılabilir.
: Bu makale için kaynak olarak kullanılan belge.