Renungan: Kalo Saja Processor Dikuasai nVidia, Pasti Berkomputasi Jadi Lebih Mooooii
Technology Add commentsBeberapa tahun yang lalu gua masih bete sama Intel. Pak Budi Wahyu Jati CEO Intel Indonesia pasti jadi orang paling malu (kalo mau ngakuin) dengan keberadaan Pentium 4 D (820, 830 Series), yaitu processor yang dibangun dengan super in-efficient, lebih pantas disebut Pembangkit Listrik dan Penghangat Ruangan, karena menghasilkan konsumsi panas super mewah sampai 230 Watt dengan performansi paling katrok bagi standard seorang Tukul sekalipun.
Hari ini Intel sudah memiliki produk yang surpass competition (jauh mengungguli) dengan processor Core 2 Duo architecturenya (buat yang pengen tau lebih jauh, Intel Core sebenarnya dibangun dari desain Pentium 3 dan kemudian berevolusi menjadi Centrino — alias desain Pentium 3 jauh lebih canggih dari HyperThreading desainnya Pentium 4 yang cuma bisa nyombongin clock speed tapi katrok). Processor Core 2 Duo saat ini (juga termasuk chip versi murahnya Pentium Dual Core — jangan bingung dengan penamaan Dual Core jaman Pentium 4, Intel emang terkenal bikin orang awam bingung, karena bingung lalu laku ๐ toop markotop marketing stylenya ๐ ), memiliki konsumsi daya dalam kisaran 65-130 Watt, jauh lebih hemat dari Pentium 4 D yang dalam kisaran 230 Watt namun berperformansi sampai 2-3x lipat.
Intel juga memiliki chip Super Hemat Daya yang harusnya kita endorse. Intel Atom adalah iterasi dari arsitektur Centrino dan hanya mengkonsumsi daya 0,6 Watt- 2,5 Watt, cukup bersaing dengan processor dari VIA (Eden).
Namun berkomputasi dengan gaya Intel masih membuat kita dalam koridor konsumer sejati. Kecepatan processor hanya dicicil dalam konteks sekian persen lebih cepat per sekian tahun, alias kita dipaksa terusssss membeli processor keluaran terbaru dengan sistem operasi yang makin tidak efisien seperti Windows Vista.
nVidia adalah perusahaan manufakturer grafik card yang berevolusi sebagai supplier SGI (Silicon Graphics) pada awal 90an dengan chip RIVA nya, kemudian merambah dunia PC dengan chip grafik yang bisa dibeli ketengan sebagai produk add-on bagi anda penggemar games di PC.
Mengapa nVidia yang seharusnya menjadi pemimpin di dunia mikroprosesor? Tahukah anda, bahwa chip grafik tercepat nVidia yang ada saat ini (GeForce 8800GT misalnya) memiliki performansi 20-40x LEBIH CEPAT daripada mikroprosesor Intel paling cepat. Whatttt? Spell this out…. Iya, chip nVidia di Graphic Card anda memiliki performansi yang bisa membuat chip Intel Core 2 Duo anda seperti seekor keledai. Huh!
Lah terus kenapa kita terus mau dicocokin hidung kayak kerbau beli produk Intel yang ga canggih-canggih amat (ok mau dibilang canggih tapi solusi yang jauh lebih canggih ada di depan mata!), MARKETING MANNNN MARKETINGGG ๐ kekekee… makan tuh iklan!
x86 walaupun bukan desain chip terbaik sudah menjadi reference untuk pengembangan jutaan software yang ada. Sementara Graphic Card yang ada tidak memiliki SDK (software development kit) untuk bisa dipakai jadi bahasa pemrograman umum. Pendeknya CPU versus GPU. GPU (nVidia) merupakan solusi discreet computing, sedangkan CPU Intel biar juga udah ada pemrosesan vektor seperti SSE4.1 masih juga cemen dan sekem dibandingkan solusi discreet (pemrosesan grafis) ala nVidia.
Apple sudah termasuk salah satu perusahaan pertama yang meng-endorse solusi discreet computing dan kemampuan superb dari graphics card dalam solusi Core Animation dan Core Image nya. Semua software-software yang didasarkan Core Animation maupun Core Image langsung melemparkan instruksi pemrosesan tersebut untuk langsung diolah oleh Graphics Card (yang jauh lebih maknyusss) ketimbang di proses oleh CPU. Lah tapi sapa Apple? Apple cuma vendor closed system yang ga bakal jadi mainstream, paling ide nya aja yang bakal ditiru oleh pemain-pemain lain yang lebih mainstream seperti Microsoft (entah kapan kalo ini mah), ato Linux (para geek dan hobbyists… gua berharap banyak dari sini).
Hari ini minimal nVidia sudah memperkenalkan pemrograman GPU lewat framework CUDA nya. Kalo saja semakin banyak pengembang perangkat lunak mau menulis software dengan solusi ini mungkin kita akan menikmati cara berkomputasi yang jauh lebih menarik daripada sekedar menulis di word processor dan ngurusin virus.
May 4th, 2008 at 9:28 pm
Ya gemana pak lha wong kita kerjaannya disekem melulu. BTW pasang NVidia yang paling kenceng, terus beli monitor LCD 20″ 3 biji, direnteng pake beginian : http://www.matrox.com/graphics/en/gxm/
Asli nggak sekolah abis itu :))
May 4th, 2008 at 9:42 pm
Wah makasih pak :), informasi yang bagus sekali.
May 4th, 2008 at 11:34 pm
tinggalkan arsitektur kuno x86 itu!
kembalilah ke jalan yang benar: Gunakan PowerPC!
May 5th, 2008 at 1:55 am
# Affan Says:
May 4th, 2008 at 9:28 pm e
Ya gemana pak lha wong kita kerjaannya disekem melulu. BTW pasang NVidia yang paling kenceng, terus beli monitor LCD 20รขโฌยณ 3 biji, direnteng pake beginian : http://www.matrox.com/graphics/en/gxm/
Asli nggak sekolah abis itu :))
-> Hehehe.. nasib jadi negara konsumtif. Terakhir info dari salah seorang rekan, bahwa di pameran Hannover, Jerman (CeBIT?) tidak satupun bendera Indonesia berkibar disana ๐ .. iya De? *Info dari rekan Made Wiryana.
May 5th, 2008 at 1:55 am
# aaulia Says:
May 4th, 2008 at 9:42 pm e
Wah makasih pak :), informasi yang bagus sekali.
=> Sama sama mas. Semoga bermanfaat.
May 5th, 2008 at 1:57 am
# Adham Somantrie Says:
May 4th, 2008 at 11:34 pm e
tinggalkan arsitektur kuno x86 itu!
kembalilah ke jalan yang benar: Gunakan PowerPC!
=> Apa negara ini berminat invest serius di teknologi ato jadi hanya sekedar konsumen, kita lihat saja nanti. Cina pun tak mau kalah dengan Dragon chip nya. Padahal desain chip open source pun banyak di pasaran.
Lebih penting lagi teknologi membuat wajan dan alat memasak murah buat masyarakat! Masyarakat susah makan sekarang!! Ditambah harga gas selangit ๐
May 5th, 2008 at 6:14 am
Ah coba di list aja daftar instruksi yang dimiliki x86 lawan NVidia GPU, bisa saling substituting tidak? Kalo udah lihat nanti kan jadi tahu misalkan NVidia GPU itu bisa kagak dipakai buat aplikasi aplikasi macam database ๐
May 5th, 2008 at 7:55 am
Baru tahu CUDA ?????? ATI juga punya sebenarnya cuma memang dari sisi programmer enakan make CUDA , kalau library-nya ATI ribet
May 5th, 2008 at 8:06 am
# adinoto Says:
May 5th, 2008 at 1:57 am
=> Apa negara ini berminat invest serius di teknologi ato jadi hanya sekedar konsumen, kita lihat saja nanti. Cina pun tak mau kalah dengan Dragon chip nya. Padahal desain chip open source pun banyak di pasaran.
Lebih penting lagi teknologi membuat wajan dan alat memasak murah buat masyarakat! Masyarakat susah makan sekarang!! Ditambah harga gas selangit ๐
#Kira2 seminggu yg lalu, saya ketemu sama seorang pengusaha yg mo masarin kompor minyak tanah yg dapat digunakan memasak sampai dengan 10 jam hanya dengan 1 liter minyak tanah!!!
saya blm tau rupa/bentuknya, tp katanya sekitar 1 bln lg dia mo launching…tp katanya harganya jg agak mahal, sekitar 100rb an
May 6th, 2008 at 3:51 pm
Ngomong2 soal PowerPC, itu, tuh, si PS3 sekarang laku buat jadi Grid Computing. Ada tertarik nyoba?
May 7th, 2008 at 4:21 pm
bener banget nih.
Pernah punya pengalaman main game kelas berat seperti GTA vice city, Halo, Splinter Cell 2.
Cuma dengan ditambah geforce fx 5200, komputer dengan spek p3 dan ram 128mb pun jadi pun bisa dipake buat main.
May 13th, 2008 at 9:08 pm
Apakah bukan tinggal porting Linux ke nVidia ?
May 18th, 2008 at 11:28 pm
yah saya termasuk yang pernah membeli pentium D 915 karena kepincut sama clockspeednya, 2,8 GHz, dan cachenya yang 4 MB. prosesor tsb dengan bodohnya saya catu dengan PSU enlight 300 watt, so pasti ngos2an ngangkatnya dan sistem jadi nggak stabil.. kemudian sebulan saya pakai, saya jual murah dan ganti dengan intel e2140. bisa dibilang e2140 itu arsitektur core2duo dengan cache hanya 1 MB? tetapi yang jelas performanya melebihi pentium D915 dengan clockspeed hanya 1,6 GHz, cache 1 MB, dan daya yang dibutuhkan hampir setengahnya…
pentium D = pentium Dungu ๐
*ngacir*
May 29th, 2008 at 3:43 am
nvidia telsa? ๐
May 29th, 2008 at 3:44 am
uh.. nvidia tesla maksudnya..
April 30th, 2009 at 10:29 pm
Saya termasuk orang yang sudah mencoba (blum sempet mengembangkan) GPGPU seperti 8800 itu namun saya pake punya ATI yaitu HD4850.
Membuat program di CPU dibandingkan dengan CPU itu bagaikan langit dengan bumi alias: ga semua yang CPU lakukan maka GPU juga bisa. Tipe data berbeda, tidak bisa mengakses index, rekursif yang terbatas (kalo pake ATI Stream SDK dengan CAL backend sih bisa namun dalam dokumennya cuma bisa 16 level doang). Dari wikipedia saya ketahui juga bahwa NVIDIA CUDA pun spek bahasanya sama aja.
Udah saya cobain bahwa untuk algoritma matriks multiplication versi naif (sesuai definisi perkalian matriks), si 4850 bisa mengungguli Q6600 @3.3GHz saya (cuma curang sih, Q6600 cuma jalan di single thread doang, saya pakai example yang ada di stream SDK) sampai 420 kalinya. But satu yang harus diingat, dengan menggunakan instruksi SSE bla bla bla itu, berdasarkan sumber di internet, operasi floating point bisa dipercepat sampai setengahnya, dengan 4 core dan program yang baik algoritmanya saya yakin paling banter GPU bisa mengungguli CPU tercanggih sekitar 7 sampai 8 kalinya.
Jadi jangan tertipu sama GFlops-nya GPU, itu bagus buat ngali bagi tambah kurang nya matriks doang karena datanya mesti dioperasikan per cell memory
April 30th, 2009 at 10:33 pm
Hanya saja memprogram SSE mesti kembali ke… assembly…
Sedangkan untuk GPGPU programming agak mending udah ada bahasa high levelnya yang mirip C
oya si PS3 itu arsitektur Cell BE nya miriiip banget sama GPU
buat berita parallel programming yang paling hot cek http://www.rapidmind.net/
November 11th, 2010 at 7:11 pm
Pantesan dulu waktu saya mau upgrade pentium 3 800mhz ke p4, abang2 teknisinya bilang, ngapain? Pentium 3 lebih bagus dari pentium 4 kali. Lebih stabil dan hemat daya. Terbukti hingga kini 2010 itu desktop dari tahun 2003 masih bisa dipake untuk maen game house dan game emulator ps one (setelah ditambahin vga mmx4400 plus extra ram beberapa tahun yg lalu tentunya ๐ )
Malahan kompi temen saya yg pake p4 dan Seri D udah pada jebol! … Mmm