6 Cara Membuat Robot Agar Tidak Mengancam Manusia



Bagaimana kita bisa tahu kapan robot dapat dipercaya dengan tanggung jawab hidup atau mati?

Dengan perjalanan tanpa henti dari kemajuan teknologi, robot dan sistem otomatis lainnya semakin pernah cerdas. Pada saat yang sama mereka juga diberi tanggung jawab yang lebih besar, mengendarai mobil, membantu dengan childcareMovie Camera, membawa senjata, dan mungkin segera bahkan menarik pelatuk.

Tapi mereka harus dipercaya untuk melakukan tugas tersebut, dan bagaimana kita bisa yakin bahwa mereka tidak pernah mengambil keputusan yang dapat menyebabkan kerusakan yang tidak diinginkan?

Kontribusi terbaru untuk perdebatan yang berkembang atas tantangan yang ditimbulkan oleh robot semakin kuat dan independen adalah buku Mesin Moral: Pengajaran Robot Kanan dari salah.

Penulis Wendell Wallach, seorang pakar etika di Universitas Yale, dan sejarawan dan filsuf ilmu kognitif Colin Allen, di Indiana University, berpendapat bahwa kita perlu mengetahui bagaimana untuk membuat robot menjadi mesin yang bertanggung jawab dan moral. Ini hanya masalah waktu sampai komputer atau robot mengambil keputusan yang akan menyebabkan bencana bagi manusia, kata mereka.

Jadi ada hal yang dapat kita lakukan untuk meminimalkan risiko? Wallach dan Allen melihat pada enam strategi yang dapat mengurangi bahaya dari sendiri kreasi berteknologi tinggi kami.

Jauhkan mereka dalam situasi berisiko rendah

Pastikan bahwa semua komputer dan robot tidak harus membuat keputusan di mana konsekuensi tidak dapat diprediksi sebelumnya.

Kemungkinan keberhasilan: Sangat rendah. Insinyur sudah membangun komputer dan sistem robot yang tindakannya mereka tidak dapat selalu memprediksi.

Konsumen, industri, dan teknologi permintaan pemerintah yang melakukan beragam tugas, dan bisnis akan memperluas produk yang mereka tawarkan untuk memanfaatkan permintaan ini. Untuk menerapkan strategi ini, akan diperlukan untuk menangkap pengembangan lebih lanjut dari komputer dan robot segera.

Jangan memberi mereka senjata

Kemungkinan keberhasilan: Terlambat. Sistem senjata robot semi-otonom, termasuk rudal jelajah dan Predator drone, sudah ada. Beberapa mesin memikul senjata robot dikirim ke Irak dan difoto di medan perang, meskipun tampaknya tidak digunakan.

Namun, perencana militer sangat tertarik dalam pengembangan tentara robot, dan melihat mereka sebagai alat untuk mengurangi kematian tentara manusia selama perang.

Sementara itu terlambat untuk menghentikan pembangunan senjata robot, hal itu mungkin tidak terlalu terlambat untuk membatasi senjata yang mereka bawa, atau situasi di mana senjata dapat digunakan.

Beri mereka aturan seperti Asimov 'Tiga Hukum Robot'

Kemungkinan keberhasilan: Moderat. Aturan Isaac Asimov terkenal yang disusun secara hierarkis: yang paling penting robot tidak boleh membahayakan manusia atau melalui kelambanan memungkinkan membahayakan mereka, kepentingan sekunder adalah bahwa mereka mematuhi manusia, sementara robot pemeliharaan diri adalah prioritas terendah.

Namun, Asimov menulis fiksi, tidak membangun robot. Dalam kisah demi kisah yang menggambarkan masalah yang akan timbul dengan bahkan aturan-aturan sederhana, seperti apa robot harus dilakukan ketika perintah dari konflik dua orang.

Aturan robot tugas Asimov dengan beberapa pertimbangan yang sulit. Sebagai contoh, bagaimana robot bisa tahu bahwa seorang ahli bedah manusia memotong ke pasien mencoba untuk membantu mereka? Cerita robot Asimov sebenarnya cukup jelas menunjukkan batas-batas setiap moralitas berbasis aturan. Namun demikian, aturan berhasil dapat membatasi perilaku robot yang berfungsi dalam konteks yang sangat terbatas.

Robot Diprogram Dengan Prinsip

Robot bangunan termotivasi untuk menciptakan "kebaikan terbesar untuk jumlah terbesar", atau "memperlakukan orang lain seperti Anda ingin diperlakukan" akan lebih aman daripada meletakkan aturan sederhana.

Kemungkinan keberhasilan: Moderat. Menyadari batas aturan, beberapa ahli etika mencari prinsip over-naik yang dapat digunakan untuk mengevaluasi semua program aksi.

Tapi sejarah etika adalah perdebatan panjang atas nilai dan batas-batas banyak prinsip tunggal yang diusulkan. Sebagai contoh, bisa tampak logis untuk mengorbankan nyawa satu orang untuk menyelamatkan nyawa lima orang. Tapi seorang dokter manusia tidak akan mengorbankan orang yang sehat hanya untuk memasok organ lima orang yang membutuhkan transplantasi. Akan robot?

Kadang-kadang mengidentifikasi pilihan terbaik di bawah aturan yang diberikan bisa sangat sulit. Misalnya, menentukan tindakan mengarah pada kebaikan terbesar akan membutuhkan sejumlah besar pengetahuan, dan pemahaman tentang akibat dari tindakan di dunia. Membuat perhitungan tersebut akan membutuhkan waktu dan banyak daya komputasi.

Mendidik robot seperti anak-anak

Mesin yang belajar karena mereka "tumbuh" bisa mengembangkan kepekaan terhadap tindakan yang orang anggap benar dan salah.

Kemungkinan keberhasilan: Menjanjikan, meskipun strategi ini membutuhkan terobosan teknologi beberapa. Sementara para peneliti telah menciptakan robot mampu belajar dengan cara yang mirip dengan humansMovie Camera, alat-alat yang tersedia saat ini sangat terbatas.

Membuat mesin menguasai emosi

Mirip manusia seperti empati, emosi, dan kemampuan untuk membaca isyarat-isyarat sosial non-verbal harus memberikan robot kemampuan yang jauh lebih besar untuk berinteraksi dengan manusia. Pekerjaan telah dimulai pada melengkapi robot dalam negeri dengan fakultas tersebut.

Kemungkinan keberhasilan: Mengembangkan robot emosional sensitif pasti akan membantu menerapkan tiga solusi sebelumnya dibahas. Sebagian besar informasi yang kami gunakan untuk membuat pilihan dan bekerja sama dengan orang lain berasal dari emosi kita, serta kemampuan kita untuk membaca gerak tubuh dan niat dan membayangkan hal-hal dari sudut pandang orang lain pandang.




Sumber : NewsScientist
Share on Google Plus

About Unknown

Hanyalah Seorang Manusia Biasa yang tidak lepas dari Kesalahan.
    Blogger Comment
    Facebook Comment

0 komentar:

Posting Komentar