AnaSayfa / Teknoloji Haberleri / Bilgisayar Dünyası / Tsubame 3.0 AI Süper Bilgisayar

Tsubame 3.0 AI Süper Bilgisayar

Japonya Tsubame 3.0 AI Süper Bilgisayarı ile Hızlanmaya Devam Ediyor

AI-silicon-shutterstock-675x380-405x228
Tsubame 3.0 AI. Tokyo Teknoloji Enstitüsü’nde Küresel Bilimsel Bilgi ve Bilgi İşlem Merkezi hızlandırılmış bilgisayar ön planda olmuştur ve GPU’lar gelip sadece serin ama uygun fiyatlı ve normal değil ivmesini yapılan çok önce. Ama son sistem, Tsubame 3.0 AI, bu yılın ilerleyen yüklenen, Japon süper bilgisayar merkezi simülasyon ve modelleme ve makine öğrenimi iş yüklerini bir araya getiren HPC uygulamanın yeni tür donanım zemin hazırlamaya gidiyor.

HPC çevrelerinde sıcak yeni bir fikir sadece simülasyonlar ile yan makine öğrenme iş yükleri tarafını çalıştırmak için, ama daha da simülasyon hızlandırmak için öğrenme makinesi kullanmak mümkün değildir ve biz TİTech araştırmacılarla birlikte konuşmalara dayalı devam gelecek bir baş hikaye var ve “Zirve” melez işlemci GPU sistemi bu çok konu hakkında, ABD Enerji Bakanlığı için inşa edilen, Oak Ridge Ulusal Laboratuvarı’nda, at. söylemek yeterli, fikri, simülasyon içine makine öğrenimini entegre etmek yeni bir şekilde hesaplama yoğun bazı şeyler yapmaktır. Bu nedenle, bir iklim modelinin bir parçası olarak, havanın filmlerini izleyerek hava durumunu tahmin etmek için makine öğrenmeyi kullanarak sistemi öğretirsiniz veya astronomide, yıldızın ilginç bitlerini bulmak için sinyaldeki gürültüyü gidermek için makine öğrenmeyi kullanırsınız alan.

Bu işi yapmak için iki ayrı makineye sahip olamazsınız ve ideal olarak, simülasyon, makine öğrenimi ve görselleştirme yapmak için tek bir sistem kullanırsınız çünkü bu şekilde büyük miktarda veri taşımak zorunda kalmazsınız Bu görevleri gerçekleştirmek için bir kümeden diğerine. (Tarihsel olarak, görselleştirme ve hesaplama genellikle süper hesaplama merkezlerinde farklı kümeler tarafından yapılmıştır.)

Açıkçası, böyle bir entegre AI-HPC iş akışı için, Nvidia ve IBM’in “AI süper bilgisayar” dediği şeyleri inşa etmeniz gerekiyor ve günümüzde, makine öğrenimi söz konusu olduğunda, GPU hızlandırıcısı çok tercih edilen hesaplama motorudur . GPU’nun, en son Top 500 süper bilgisayar sıralamalarıyla kanıtlandığı üzere, geleneksel HPC simülasyonları ve modelleri için bir hızlandırıcı olarak yerini bulduğu da eşit derecede açıktır. TiTech’in kurduğu Tsubame 3.0 AI sistemi böylesine hibrid bir makine olmayı hedefliyor.

The Next Platform’un ana temalarından biri, HPC yenilikçi maymunun yeni teknolojilerle dolaştırılması ve çalışanlara ve işletmeler için uygun olanların eninde sonunda hiper ölçekli ve bulut ortamlarına atlaması ya da işletmenin içine dökülmesi. Melez AI süper bilgisayarı, HPC merkezlerinde geleneksel simülasyon iş yükleri ve aşırıölçerlerde mükemmelleştirilmiş derin öğrenme iş yükleri arasında bir çarpışma oluşturuyor ve HPC milletvekilleri, aşırılıkçılığa maruz kalmış insanlardan öğreniyor. Ve bunun hiçbir yanlışlığı yok.

Hızlanma Uzun İnce Bir Yolda Mı?

TiTech, Tsubame 1.0 süper bilgisayarını, Sun Microsystems’den Opteron tabanlı “Constellation” sistemlerinin bir karışımını InfiniBand ara bağlantısıyla ve ClearSpeed Technologies’den kayan nokta hızlandırıcılarla, 2006’da geri döndürerek HPC topluluğunun önündeydi. (Japonca Anlaşma üzerine süper bilgisayar üreticisi NEC, ana yüklenici ve Sun donanım tedarik etti.)

Bu Tsubame 1.0 makinesi toplam ana bellek bir sonra-masif 21.4 TB ve çift hassasiyetle 50.4 teraflop en yüksek teorik performans ile iki çekirdekli Opteron işlemci ile donatılmış Güneşin sekiz soketli Galaxy 4 sunucu düğümlerinin 655 oluşuyordu. Daha sonra, bu Tsubame 1.0 düğümlerinin 360’ında ClearSpeed ​​CX600 SIMD hızlanma kartları bulunuyor ve bu da 35 teraflop’luk çift duyarlılık sağlıyordu. Düğümler, Voltaire’den (şimdi Mellanox Technologies’in bir parçası olan) 10 Gb / sn’lik InfiniBand anahtarlarıyla birlikte, HPC dilinde söyledikleri gibi, yedek raylar için sunucu başına iki bağlantı noktasına sahipti. Bu ağ 13.5 TB / sn toplam bant genişliği ve 3 Tb / sn iki kesitli bant genişliği sağladı ve Sun’ın “Thumper” saklama alanına dayanan ve 50 GB / sn’lik depolama G / Ç bant genişliği sağlayan 1 PB Lustre dizisi ile bağlantılıydı. Linpack Fortran kıyaslama testi Tsubame 1.0’da çalıştırıldığında, 38.2 teraflop’luk sürekli bir performans gösterdi. 76 raf aldı ve 1.2 megavat yaktı.

Orada daha kilolu bellek düğümler, bazı hızlı Opteron’lar ve ClearSpeed ​​hızlandırıcıları ve birkaç Tesla GPU hızlandırıcıları ile Tsubame 1.1 ve 1.2 geçici yükseltme 2008’e kadar, ama TİTech sıradaki büyük atlama Mayıs 2010. Bu açıldı Tsubame 2.0, birlikteydim makine, iki soketli Intel içine Nvidia Tesla GPU hızlandırıcıları bir çok paketi açıkça tasarlanmış süper yoğun ProLiant SL serisi muhafazaları besleyen birincil tekrar yüklenici ve HPE olarak NEC ile, NEC ve Hewlett Packard Kurumsal ile bir ortaklık aracılığıyla inşa edildi Xeon sunucu düğümü.

ProLiant SL390G7 düğümleri, her düğümde iki 60 GB SSD ve iki 120 GB SSD bulunan, 96 GB bellek ile 2.93 GHz hızında çalışan altı çekirdeğe sahip iki özel “Westmere-EP” Xeon X5670 işlemcisine sahipti. Düğümlerin “Fermi” GPU nesline dayanan üç Nvidia Tesla M2050 hızlandırıcısı vardı ve her düğüm toplam 1,6 teraflop hesaplama, 400 GB / sn bellek bant genişliği ve 80 Gb / sn ağ bant genişliği sağladı. Tsubame 2.0 sistemindeki 1,408 düğüm, 40 Gb / sn InfiniBand anahtarları ile birleştirildi; yağ ağacı konfigürasyonu, iki bant genişliği civarında 220 Tb / sn sağladı. Tsubame 2.0, 40 Gb / sn InfiniBand ile bağlantılı ve toplam 11 PB kapasiteye sahip DataDirect Networks tarafından inşa edilen Lustre dosya sistemlerine sahipti. Bütün şablon, 100 TB ana bellek ve 200 TB SSD kapasitesi ile yaklaşık 2.4 petaflop zirveye ulaştı ve şaşırtıcı bir şekilde sadece 42 rafa sığdı ve yalnızca 1.4 megavat yaktı.

Tsubame 2.5 yükseltmesi ile Xeon düğümleri aynı kaldı ve TiTech “Kepler” ailesi GPU’lar tarafından desteklenen Tesla K20X GPU’lar için Tesla M2050’leri değiştirdi. Her Kepler K20X GOU’da 1.31 teraflop çift duyarlık ve 3.95 teraflop tek hassasiyetli kayan nokta çarpması vardı ve GPU’larda Tesla M2050’lerin iki katı olan 6 GB GDDR5 bellek vardı. Düğüm performansı, çifte hassastır ve çifte hassasiyetle dört kat arttı ve Tsubame 2.5, aynı 42 rafta ve şimdi 1.2 megavat güce geri dönerek 5.76 petaflops pik hassasiyetle çarpıyordu.

Bu hafta Japonya’da açılan Tsubame 3.0 AI makinesi, geçen yıl HPE’nin bir parçası olan SGI ile birlikte geliştirildi ve TiTech ile SGI arasında ICE XA sistemlerinin modifiye edilmiş bir versiyonu ile özel olarak tasarlanmış olan bir ortak tasarım projesi. Japon süper hesap merkezi ihtiyaçları.

Ayrıntılar şu anda Tsubame 3.0 AI’da biraz ince ama burada bildiklerimiz buradadır. Tsubame düğümleri Nvidia’nın en yeni nesil “Pascal” Tesla P100 hızlandırıcılarını temel alıyor ve aşağıdaki resimde iki işlemci ve dört Tesla P100’ü varmış gibi görünüyor, hepsi de su soğutmalı.


Tokyo Teknoloji Enstitüsünde GSIC Yüksek Performanslı Hesaplama Sistemleri Grubu profesörü olan Satoshi Matsuoka, Tsubame 3.0 AI sunucu düğümünü gösteriyor.
TiTech tarafından yapılan açıklamadan bildiğimiz, Tsubame 3.0 AI’ın toplam 2.160 GPU’su olması, yani görüntünün sağındaki dört öğe GPU’larsa, sistemin tamamında 540 bıçak olacak demektir. Makinenin bu yaz yüklenmesinden dolayı, Tsubame 3.0 AI, Intel’in gelecek yılın ortalarında olacak olan “Skylake” Xeon işlemcilerini kullanıyor olacağını tahmin edebiliyor olabilirsiniz. Bıçağın sağındaki iki hesaplama öğesi işlemciler ve GPU’ları CPU’lara sıkı sıkıya bağlamak için yerli NVLink bağlantı noktalarına sahip IBM’in Power9 cipsi olsaydı, eğlenceli olurdu. TiTech, Skylake Xeon’ları veya Power9’ları değil, 2.4 çekim gücünde 14 çekirdeğe sahip ve 120 watt termal zarf içerdiği “Broadwell” Xeon E5-2680 v4 işlemcilerini kullanıyor.

Düşük termal zarf artı su soğutması, HPE / SGI’nin tüm bu hesaplamayı, rafta 1U’dan daha düşük bir alana nasıl sıkıştırabildiğidir.

Tsubame 3.0 AI bıçak tasarımının bu yılın ilerleyen saatlerinde GPU Teknik Konferansı’nda açılacağı ve zirveye girecek olan “Volta” Tesla V100 GPU hızlandırıcılarının yükseltilmesine izin vereceğini merak ediyoruz. Oak Ridge.

Tüm bu CPU’lar ve GPU’larda Tsubame 3.0 AI, 12.15 petaflop pik çift hassasiyetli performansa sahip olacak ve 24.3 petaflops tek hassasiyete ve en önemlisi, derinlerde çalışan sinir ağları için önemli olan yarı hassasiyetle 47.2 petaflop olarak derecelendirilecektir Öğrenme uygulamaları. Mevcut Tsubame 2.5 makinesine ve deneysel daldırma soğutmalı Tsubame-KFC sistemine eklendiğinde, TiTech, iş yükü kazanmak için toplam 6.720 GPU’ya sahip olacak ve yarım hassasiyetle toplam 64.3 toplam petaflops eklenecektir. (Bu, bizim için ilginç, çünkü Nvidia, yarım hassaslığı resmi olarak desteklemeyen Kepler GPU’larında yarım hassasiyet elde etmek için TiTech ile birlikte çalıştı.)

Geçmişteki Tsubame makinelerinde olduğu gibi, Tsubame 3.0 AI düğümleri hızlı, geçici olmayan depolama alanıyla donatılmıştır ve bu durumda her düğüm 1,08 PB’lik bu depolamaya sahiptir. NAND flash veya 3D XPoint bellek olup olmadığını bilmiyoruz, ancak ya olabilir. Her düğümün ayrıca 256 GB ana bellek vardır.

TiTech, Tsubame 3.0 AI makinesinde düğümleri birbirine tutturmak için Intel’in Omni-Path ara birimini seçti ve 2018 yılına kadar Intel’den beklenmeyen gelecekteki 200 Gb / sn hızında değil de şu anki 100 Gb / sn hızında. Her düğümün dört Omni-Path portu vardır. NVLink, her bir Tsubame 3.0 AI bıçakındaki dört GPU’yu birbirine bağlamak için kullanılmaktadır, ancak Broadwell Xeon’ların yerli NVLink bağlantı noktalarına sahip olmadığı için, GPU’lar CPU’lara yavaş PCI-Express hatları üzerinden bağlanmaktadır. Bunun doğrudan yapılıp yapılmadığı veya hesaplama öğeleri arasında bir PCI-Express anahtarı kullanılarak yapıldığı açık değildir.

 

Tsubame 3.0 AI’daki harici depolama alanı için TiTech, bir kez daha DDN’yi kullandı. Bu durumda, Tsubame 3.0 AI, 15.9 PB toplam kapasitesine ve 150 GB / sn’lik bir üst düzey teorik işleme sahip üç ES14KX Lustre cihazında düğüm içi çalışma alanının dışındaki verileri saklar.

Bu sistemdeki donanım ve yazılım yığınlarını takip edeceğiz, bu yüzden bizi takip etmeye devam edin.

 

Kaynak

Çeviri: Google Translate

Yorum yapmak – cevap yazmak için tıklayınız

Hakkında Doğan Tütüncü

Ayrıca Kontrol Ediniz

Cebit 2017 Hannover

Cebit 2017 Hannover Sanal Gerçeklik CeBIT 2017’de görücüye çıkan teknolojilerin başında sanal gerçeklik akımı geliyor. …

Bir cevap yazın

Bu sitede bulunan içeriğin kaynak belirtilmeden paylaşılması yasaktır.
Telif Ve Gizlilik Politikası
Elektronikbilimi.com olarak kişisel güvenlik haklarına ve şirketlerin telif haklarına saygı duyuyor, kişisel bilgilerinizin korunmasını sağlıyor. Sitemiz Türkiye Cumhuriyeti yasalarına ve hukuka bağımlı, kişisel ve ticari haklara saygılı olmayı hedefleyerek yayın hayatına devam etmektedir. T.C 5651 Sayılı yasa kapsamında “Yer Sağlayıcı” sıfatıyla hizmet vermekteyiz. Bu doğrultuda site yönetimi ve çalışanlarının içerikleri kontrol etme ve onaylama yükümlülüğü yoktur. İçerikler özgün olarak herkes tarafından oluşturabilir, site yönetimi şikayet sonrasında işlem yapmakla yükümlüdür. Bu sebeple sitemiz “uyar ve kaldır” prensipleri çerçevesinde işlem yapmaktadır. İş bu madde gereği telif hakkı dahilinde olan yazı, içerik, resim ve her türlü dosyaların, eserlerin yasal olmayan bir biçimde yayınlandığını, paylaşıldığını düşünüyorsanız; mail yolu ile bizlere ulaşabilir. İçeriğin kaldırılmasını talep edebilirsiniz. Talebiniz incelendikten sonra, içeriğiniz sitemizden kalıcı olarak kaldırılıp, sizlere bilgi verilecektir. Telif, ihtar ve uyarı için mail adresimiz iletişim: iletişim[@]elektronikbilimi.com
Our site does not store or share any content on/from it’s servers. We respect owners of copyrighted work and treat every infringement very serious. If you wish to report a copyright infringement please send email to iletişim[@]elektronikbilimi.com content will be removed within 72 hours.
Araç çubuğuna atla