Cerebras Systems, startup yang berbasis di AS, meluncurkan chip terbesar yang mengintegrasikan lebih dari 1,2 triliun transistor dan berukuran 46.225 milimeter persegi. Chip Cerebras Wafer Scale Engine (WSE) baru dioptimalkan untuk AI dan 56,7 kali lebih besar dari unit pemrosesan grafis terbesar yang berukuran 815 milimeter persegi dan berisi 21,1 miliar transistor. Cerebras Wafer Scale Engine (WSE) baru menyediakan 3.000 kali lebih banyak kecepatan tinggi, memori on-chip dan dilengkapi dengan bandwidth memori 10.000 kali lebih banyak. Ukuran chip yang lebih besar memastikan bahwa informasi dapat diproses lebih cepat dan bahkan dapat mengurangi time-to-insight, atau "waktu pelatihan" yang memungkinkan para peneliti untuk menguji lebih banyak ide, menggunakan lebih banyak data, dan memecahkan masalah baru.
Cerebras WSE dirancang untuk AI dan berisi inovasi mendasar yang memajukan seni dengan memecahkan tantangan teknis berusia puluhan tahun yang terbatas ukuran chip - seperti konektivitas lintas retikel, hasil, pengiriman daya, dan pengemasan. WSE dapat mempercepat penghitungan dan komunikasi, yang mengurangi waktu pelatihan. WSE memiliki area silikon 56,7 kali lebih banyak daripada unit pemrosesan grafis terbesar. Selain itu, WSE dapat menyediakan lebih banyak inti untuk melakukan lebih banyak penghitungan dan menampilkan lebih banyak memori yang lebih dekat ke inti, sehingga inti dapat beroperasi secara efisien. Semua komunikasi disimpan pada silikon itu sendiri karena banyaknya inti dan memori yang tertanam pada satu chip.
Chip Cerebras WSE berisi 46.225mm2 silikon dan menampung 400.000 AI yang dioptimalkan, tanpa cache, tanpa overhead, inti komputasi, dan memori SRAM lokal, terdistribusi, dan super cepat sebesar 18 gigabyte. Chip ini dilengkapi dengan bandwidth memori 9 petabyte per detik di mana inti-inti tersebut dihubungkan bersama dengan jaringan komunikasi yang terhubung dengan mesh on-chip, semua perangkat keras, yang memberikan bandwidth agregat 100 petabits per detik. Ini berarti bandwidth komunikasi latensi rendah dari WSE sangat besar yang membuat grup inti berkolaborasi dengan efisiensi maksimum, dan bandwidth memori tidak lagi menjadi penghambat. Lebih banyak memori lokal, lebih banyak core, dan fabric bandwidth tinggi latensi rendah digabungkan bersama-sama membentuk arsitektur yang optimal untuk mempercepat pekerjaan AI.
Fitur chip Cerebras WSE:
- Peningkatan inti: WSE mengintegrasikan 400.000 inti komputasi yang dioptimalkan untuk AI yang disebut SLAC (Sparse Linear Algebra Cores) yang dapat diprogram, fleksibel, dan dioptimalkan untuk aljabar linier renggang yang menopang semua komputasi jaringan saraf. Fitur kemampuan program SLAC memastikan bahwa inti dapat dengan mudah menjalankan semua algoritma jaringan saraf di bidang pembelajaran mesin yang terus berubah. Inti WSE menggunakan teknologi pemanenan jarak yang ditemukan Cerebras yang mempercepat kinerja komputasi pada beban kerja yang jarang (beban kerja yang mengandung nol) seperti pembelajaran mendalam.
- Memori yang Ditingkatkan: Cerebras WSE mengintegrasikan lebih banyak memori lokal bersama dengan lebih banyak inti yang melebihi chip mana pun yang memungkinkan komputasi yang fleksibel dan cepat pada latensi yang lebih rendah dan dengan lebih sedikit energi. WSE hadir dengan memori on-chip 18 GB (Gigabytes) yang dapat diakses oleh intinya dalam satu siklus clock. Kumpulan memori inti-lokal ini membuat WSE mengirimkan agregat 9 petabyte per detik bandwidth memori yang merupakan 10.000 X lebih banyak bandwidth memori dan 3.000 X