Mohon tunggu...
Siti Nurhalizah
Siti Nurhalizah Mohon Tunggu... Mahasiswa - Mahasiswa

Menulis

Selanjutnya

Tutup

Ilmu Alam & Tekno

Analisis Sistema Paralel Data Komputasi Menggunakan Metode Radix

8 Juli 2022   22:40 Diperbarui: 8 Juli 2022   22:57 559
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Ilmu Alam dan Teknologi. Sumber ilustrasi: PEXELS/Anthony

Message Passing Interface (MPI) adalah spesifikasi library untuk melewatkan pesan ( message - passing) yang telah diadopsi sebagai standar oleh beberapa vendor, komite pelaksana, dan implementasi .Proses tunggal adalah kumpulan utas ( memori lokal dan program pencacah ) yang terus - menerus bertukar informasi tentang alamat ruangan tertentu . 

Dengan kata lain , MPI berfungsi sebagai penghubung komunikasi antar proses yang cukup dekat untuk berbagi ruang privat , terutama untuk transmisi data antar proses melalui sinkronisasi dan perpindahan . Konsep MPI bisa dilihat di Gambar 1 dan Efisiensi , yang keduanya merupakan bagian dari koleksi Speed Up dan Efisiensi.

METODOLOGI

Sebuah Komputasi Parametrik

Komputasi paralel adalah suatu metode untuk memecahkan suatu masalah dalam komputasi dengan mendistribusikan masalah tersebut ke dalam beberapa subproses yang lebih kecil , dimana setiap subprosedur dijalankan pada prosesor yang berbeda dan berinteraksi satu sama lain.Ini adalah tujuan komputasi paralel untuk meningkatkan kecepatan pemrosesan komputer dengan membagi masalah besar menjadi beberapa masalah kecil . 

Hal ini membuat proses penyelesaian berbagai masalah menjadi lebih cepat.

Peningkatan kecepatan komputasi paralel dibandingkan dengan komputasi serial dapat dikaitkan dengan fakta ini .Terjadi peningkatan yang nyata pada kecepatan peningkatan ( Speed Up ) .

Protokol Pesan Masukan/Keluaran (MPI)

Message Passing Interface adalah implementasi standar dari konsep komputer "message passing" ( MPI) . MPI adalah jenis komputasi paralel yang terdiri dari sejumlah proses yang bekerja sama pada sejumlah kecil data lokal10 ) .Setiap proses memiliki variabel lokal , dan tidak ada memori eksternal yang dapat diakses secara langsung oleh satu proses.

Untuk tujuan menyediakan cara standar untuk menulis program untuk mengirim dan menerima pesan , Message Passing Interface ( MPI ) dibuat .

Message Passing Interface (MPI)

HALAMAN :
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6. 6
  7. 7
  8. 8
  9. 9
  10. 10
  11. 11
  12. 12
  13. 13
Mohon tunggu...

Lihat Konten Ilmu Alam & Tekno Selengkapnya
Lihat Ilmu Alam & Tekno Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun