KOMPUTASI MODERN
Sejarah
Komputasi Modern
Sejarah komputer modern dimulai dengan dua teknologi yang
terpisah -perhitungan otomatis dan dapat di program- tapi tidak ada satu
perangkat pun yang dapat dikatakan sebagai komputer, karena sebagian penerapan
yang tidak konsisten terhadap istilah tersebut.
Salah satu tokoh yang paling berpengaruh terhadap
perkembangan komputasi modern adalah John Von Neumann (1903-1957). John Von
Neumann adalah salah satu ahli matematika terbesar abad ini. Beliaulah yang
pertama kali menggagas konsep sebuah sistem yang menerima instruksi-instruksi
dan menyimpannya dalam sebuah memori. Konsep inilah yang menjadi dasar
arsitektur komputer hingga saat ini. Beliau juga salah seorang ilmuwan yang
sangat berpengaruh dalam pembuatan bom atom di Los Alamos pada Perang Dunia II
lalu. Beliau telah memberikan karya-karya yang menakjubkan lewat teori kuantum,
game theory, fisika nuklir, dan ilmu komputer.
John Von Neumann adalah anak pertama dari pasangan Neumann
Miksa dan Kann Margit. Kedua orang tua nya memberikan nama Neumann Janos,
begitulah nama asli dari John Von Neumann yang terlahir di Budapest, ibu kota
Hungaria, pada tanggal 28 Desember 1903. Beliau terlahir dengan otak yang
jenius, karena saat usia nya masih beliau beliau mampu menyeimbangkan kemampuan
logika analitisnya dengan kemampuan sosial. Beliau memiliki bakat pada bidang
matematika.
John Von Neumann juga sangat tertarik pada hidrodinamika dan
kesulitan penyelesaian persamaan diferensial parsial nonlinier yang digunakan,
Von Neumann kemudian beralih dalam bidang komputasi. Von Neumann menjadi
seorang konsultan pada pengembangan komputer ENIAC, dia merancang konsep
arsitektur komputer yang masih dipakai sampai sekarang. Arsitektur Von Nuemann
adalah seperangkat komputer dengan program yang tersimpan (program dan data
disimpan pada memori) dengan pengendali pusat, I/O, dan memori.
Berikut ini beberapa contoh komputasi modern sampai dengan
lahirnya ENIAC :
1. Konrad Zuse’s electromechanical “Z mesin”.Z3 (1941) sebuah
mesin pertama menampilkan biner aritmatika, termasuk aritmatika floating point
dan ukuran programmability. Pada tahun 1998, Z3 operasional pertama di dunia
komputer itu di anggap sebagai Turing lengkap.
2. Berikutnya Non-programmable Atanasoff-Berry Computer yang
di temukan pada tahun 1941 alat ini menggunakan tabung hampa berdasarkan
perhitungan, angka biner, dan regeneratif memori kapasitor. Penggunaan memori
regeneratif diperbolehkan untuk menjadi jauh lebih seragam (berukuran meja
besar atau meja kerja).
3. Selanjutnya komputer Colossus ditemukan pada tahun 1943,
berkemampuan untuk membatasi kemampuan program pada alat ini menunjukkan bahwa
perangkat menggunakan ribuan tabung dapat digunakan lebih baik dan elektronik
reprogrammable. Komputer ini digunakan untuk memecahkan kode perang Jerman.
4. The Harvard Mark I ditemukan pada 1944, mempunyai skala
besar, merupakan komputer elektromekanis dengan programmability terbatas.
5. Lalu lahirlah US Army’s Ballistic Research Laboratory
ENIAC ditemukan pada tahun 1946, komputer ini digunakan untuk menghitung
desimal aritmatika dan biasanya disebut sebagai tujuan umum pertama komputer
elektronik (ENIAC merupakan generasi yang sudah sangat berkembang di zamannya
sejak komputer pertama Konrad Zuse ’s Z3 yang ditemukan pada tahun 1941).
Sejarah dari komputasi modern sangat lah panjang perjalannya.
Dari seorang John Von Neumann komputasi modern tersebut bisa berkembang sampai
saat ini yang kita kenal dan kita tahu. Dari ilmu komputasi dan dikembangkan
menjadi komputasi yang modern dengan menggunakan komputer yaitu Komputasi
Modern.
Macam -
macam Komputasi Modern
Komputasi modern terbagi menjadi 3 macam, yaitu :
Mobile
Computing
Komputasi bergerak adalah kemajuan
teknologi komputer sehingga dapat berkomunikasi menggunakan jaringan tanpa
menggunakan kabel dan mudah dibawa atau berpindah tempat, tetapi berbeda dengan
komputasi nirkabel.
Grid
Computing
Komputasi grid menggunakan komputer
yang terpisah secara geografis namun terhubung dengan sebuah jaringan sehingga
bisa menyelesaikan masalah komputasi. Prinsip kerja grid computing terbagi dua
yaitu virtualisasi (Setiap sumberdaya
semisal komputer, disk, komponen aplikasi dan sumber informasi dikumpulkan
bersama-sama menurut jenisnya, lalu disediakan bagi konsumen (semisal orang
atau program software), dan provisioning (Ketika konsumen meminta sumberdaya
melalui layer virtualisasi, sumberdaya tertentu di belakang layer didefinisikan
untuk memenuhi permintaan tersebut, dan kemudian dialokasikan ke konsumen).
Cloud
Computing
Cloud Computing adalah sebuah model
untuk kenyamanan, akses jaringan on-demand untuk menyatukan pengaturan
konfigurasi sumber daya komputasi (seperti, jaringan, server, media penyimpanan,
aplikasi, dan layanan) yang dapat dengan cepat ditetapkan dan dirilis dengan
usaha manajemen yang minimal atau interaksi dengan penyedia layanan.
Perbedaan antara komputasi mobile, grid, dan cloud :
Komputasi mobile menggunakan teknologi komputer yang bekerja
seperti handphone, sedangkan komputasi grid dan cloud menggunakan komputer.
Biaya untuk tenaga komputasi mobile lebih mahal dibandingkan
dengan komputasi grid dan cloud.
Komputasi mobile tidak membutuhkan tempat dan mudah dibawa
kemana-mana, sedangkan grid dan cloud membutuhkan tempat yang khusus.
Untuk komputasi mobile proses tergantung si pengguna,
komputasi grid proses tergantung pengguna mendapatkan server atau tidak, dan
komputasi cloud prosesnya membutuhkan jaringan internet sebagai penghubungnya.
Dan ada juga persamaan antara komputasi mobile, komputasi
grid, dan komputasi cloud, penjelasanya sebagai berikut :
Ketiganya merupakan metode untuk melakukan komputasi,
pemecahan masalah, dan pencarian solusi.
Ketiganya memerlukan alat proses data yang modern seperti
komputer, laptop atau telepon genggam untuk menjalankannya.
QUANTUM QOMPUTATION
Pengertian Quantum Computing
Merupakan alat hitung yang menggunakan
mekanika kuantum seperti superposisi dan keterkaitan, yang digunakan untuk
peng-operasi-an data. Perhitungan jumlah data pada komputasi klasik dihitung
dengan bit, sedangkan perhitungan jumlah data pada komputer kuantum dilakukan
dengan qubit. Prinsip dasar komputer kuantum adalah bahwa sifat kuantum dari
partikel dapat digunakan untuk mewakili data dan struktur data, dan bahwa
mekanika kuantum dapat digunakan untuk melakukan operasi dengan data ini. Dalam
hal ini untuk mengembangkan komputer dengan sistem kuantum diperlukan suatu
logika baru yang sesuai dengan prinsip kuantum.
Sejarah singkat
Pada tahun 1970-an pencetusan atau
ide tentang komputer kuantum pertama kali muncul oleh para fisikawan dan
ilmuwan komputer, seperti Charles H. Bennett dari IBM, Paul A. Benioff dari
Argonne National Laboratory, Illinois, David Deutsch dari University of Oxford,
dan Richard P. Feynman dari California Institute of Technology (Caltech).
Feynman dari California Institute of Technology yang pertama
kali mengajukan dan menunjukkan model bahwa sebuah sistem kuantum dapat
digunakan untuk melakukan komputasi. Feynman juga menunjukkan bagaimana sistem
tersebut dapat menjadi simulator bagi fisika kuantum.
Pada tahun 1985, Deutsch menyadari esensi dari komputasi oleh
sebuah komputer kuantum dan menunjukkan bahwa semua proses fisika, secara
prinsipil, dapat dimodelkan melalui komputer kuantum. Dengan demikian, komputer
kuantum memiliki kemampuan yang melebihi komputer klasik.
Pada tahun 1995, Peter Shor merumuskan sebuah algoritma yang
memungkinkan penggunaan komputer kuantum untuk memecahkan masalah faktorisasi
dalam teori bilangan.
Sampai saat ini, riset dan eksperimen pada bidang komputer
kuantum masih terus dilakukan di seluruh dunia. Berbagai metode dikembangkan
untuk memungkinkan terwujudnya sebuah komputer yang memilki kemampuan yang luar
biasa ini. Sejauh ini, sebuah komputer kuantum yang telah dibangun hanya dapat
mencapai kemampuan untuk memfaktorkan dua digit bilangan. Komputer kuantum ini
dibangun pada tahun 1998 di Los Alamos, Amerika Serikat, menggunakan NMR
(Nuclear Magnetic Resonance).
Entanglement
Entanglement adalah efek mekanik
kuantum yang mengaburkan jarak antara partikel individual sehingga sulit
menggambarkan partikel tersebut terpisah meski Anda berusaha memindahkan
mereka. Contoh dari quantum entanglement: kaitan antara penentuan jam sholat
dan quantum entanglement. Mohon maaf bagi yang beragama lain saya hanya
bermaksud memberi contoh saja. Mengapa jam sholat dibuat seragam? Karena dengan
demikian secara massal banyak manusia di beberapa wilayah secara serentak masuk
ke zona entanglement bersamaan.
Pengoperasian Data Qubit
Komputer kuantum memelihara urutan
qubit. Sebuah qubit tunggal dapat mewakili satu, nol, atau, penting, setiap
superposisi quantum ini, apalagi sepasang qubit dapat dalam superposisi kuantum
dari 4 negara, dan tiga qubit dalam superposisi dari 8. Secara umum komputer
kuantum dengan qubit n bisa dalam superposisi sewenang-wenang hingga 2 n negara
bagian yang berbeda secara bersamaan (ini dibandingkan dengan komputer normal
yang hanya dapat di salah satu negara n 2 pada satu waktu). Komputer kuantum
yang beroperasi dengan memanipulasi qubit dengan urutan tetap gerbang logika
quantum. Urutan gerbang untuk diterapkan disebut algoritma quantum.
Sebuah contoh dari implementasi qubit untuk komputer kuantum
bisa mulai dengan menggunakan partikel dengan dua putaran menyatakan: “down”
dan “up”. Namun pada kenyataannya sistem yang memiliki suatu diamati dalam
jumlah yang akan kekal dalam waktu evolusi dan seperti bahwa A memiliki
setidaknya dua diskrit dan cukup spasi berturut-turut eigen nilai , adalah
kandidat yang cocok untuk menerapkan sebuah qubit. Hal ini benar karena setiap
sistem tersebut dapat dipetakan ke yang efektif spin -1/2 sistem.
Algoritma pada Quantum Computing
Para ilmuwan mulai melakukan riset
mengenai sistem kuantum tersebut, mereka juga berusaha untuk menemukan logika
yang sesuai dengan sistem tersebut. Sampai saat ini telah dikemukaan dua
algoritma baru yang bisa digunakan dalam sistem kuantum yaitu algoritma shor
dan algoritma grover.
Algoritma
Shor
Algoritma yang ditemukan oleh Peter
Shor pada tahun 1995. Dengan menggunakan algoritma ini, sebuah komputer kuantum
dapat memecahkan sebuah kode rahasia yang saat ini secara umum digunakan untuk
mengamankan pengiriman data. Kode yang disebut kode RSA ini, jika disandikan
melalui kode RSA, data yang dikirimkan akan aman karena kode RSA tidak dapat
dipecahkan dalam waktu yang singkat. Selain itu, pemecahan kode RSA membutuhkan
kerja ribuan komputer secara paralel sehingga kerja pemecahan ini tidaklah
efektif.
Algoritma
Grover
Algoritma Grover adalah sebuah
algoritma kuantum yang menawarkan percepatan kuadrat dibandingkan pencarian
linear klasik untuk list tak terurut. Algoritma Grover menggambarkan bahwa
dengan menggunakan pencarian model kuantum, pencarian dapat dilakukan lebih
cepat dari model komputasi klasik. Dari banyaknya algoritma kuantum, algoritma
grover akan memberikan jawaban yang benar dengan probabilitas yang tinggi.
Kemungkinan kegagalan dapat dikurangi dengan mengulangi algoritma. Algoritma
Grover juga dapat digunakan untuk memperkirakan rata-rata dan mencari median
dari serangkaian angka, dan untuk memecahkan masalah Collision.
Implementasi
Quantum Computing
Pada 19 Nov 2013 Lockheed Martin, NASA
dan Google semua memiliki satu misi yang sama yaitu mereka semua membuat
komputer kuantum sendiri. Komputer kuantum ini adalah superkonduktor chip yang
dirancang oleh sistem D – gelombang dan yang dibuat di NASA Jet Propulsion
Laboratories.
NASA dan Google berbagi sebuah komputer kuantum untuk
digunakan di Quantum Artificial Intelligence Lab menggunakan 512 qubit D -Wave
Two yang akan digunakan untuk penelitian pembelajaran mesin yang membantu dalam
menggunakan jaringan syaraf tiruan untuk mencari set data astronomi planet ekstrasurya
dan untuk meningkatkan efisiensi searchs internet dengan menggunakan AI
metaheuristik di search engine heuristical.
A.I. seperti metaheuristik dapat menyerupai masalah
optimisasi global mirip dengan masalah klasik seperti pedagang keliling, koloni
semut atau optimasi swarm, yang dapat menavigasi melalui database seperti
labirin. Menggunakan partikel terjerat sebagai qubit, algoritma ini bisa
dinavigasi jauh lebih cepat daripada komputer konvensional dan dengan lebih
banyak variabel.
Penggunaan metaheuristik canggih pada fungsi heuristical
lebih rendah dapat melihat simulasi komputer yang dapat memilih sub rutinitas
tertentu pada komputer sendiri untuk memecahkan masalah dengan cara yang
benar-benar cerdas . Dengan cara ini mesin akan jauh lebih mudah beradaptasi
terhadap perubahan data indrawi dan akan mampu berfungsi dengan jauh lebih
otomatisasi daripada yang mungkin dengan komputer normal
Sumber :