Dasar-dasar Kecerdasan Buatan dan Pembelajaran Mesin

sebuah pengantar

Selama beberapa tahun terakhir, istilah kecerdasan buatan dan pembelajaran mesin mulai sering muncul di berita teknologi dan situs web. Keduanya sering digunakan sebagai sinonim, tetapi banyak ahli berpendapat bahwa mereka memiliki perbedaan yang halus tetapi benar.

Tentu saja, para ahli terkadang tidak setuju di antara mereka sendiri tentang apa perbedaan ini.

Secara umum, dua hal tampak jelas: pertama, istilah kecerdasan buatan (AI) lebih tua dari istilah pembelajaran mesin (ML), dan kedua, kebanyakan orang menganggap pembelajaran mesin sebagai bagian dari kecerdasan buatan.

Kecerdasan buatan vs. pembelajaran mesin

Meskipun kecerdasan buatan didefinisikan dalam banyak cara, definisi yang paling diterima secara luas adalah “bidang ilmu komputer yang didedikasikan untuk memecahkan masalah kognitif yang umumnya terkait dengan kecerdasan manusia, seperti pembelajaran, pemecahan masalah, dan pengenalan pola”. bahwa mesin dapat memiliki kecerdasan.

Inti dari sistem berbasis AI adalah modelnya. Model tidak lain adalah program yang meningkatkan pengetahuannya melalui proses pembelajaran dengan melakukan pengamatan terhadap lingkungannya. Jenis model pembelajaran berbasis pembelajaran ini dikelompokkan dalam pembelajaran terawasi. Ada model lain yang termasuk dalam kategori model pembelajaran tanpa pengawasan.

Ungkapan “pembelajaran mesin” juga berasal dari pertengahan abad terakhir. Pada tahun 1959, Arthur Samuel ML didefinisikan sebagai “kemampuan untuk belajar tanpa diprogram secara eksplisit.” Dia melanjutkan untuk membuat aplikasi pemeriksa komputer yang merupakan salah satu yang pertama yang dapat belajar dari kesalahannya dan meningkatkan kinerjanya dari waktu ke waktu.

Seperti penelitian AI, ML tidak populer untuk waktu yang lama, tetapi menjadi populer kembali ketika konsep data mining mulai muncul sekitar tahun 1990-an. Penambangan data menggunakan algoritme untuk mencari pola dalam kumpulan informasi tertentu. ML melakukan hal yang sama, tetapi kemudian melangkah lebih jauh – ML mengubah perilaku programnya berdasarkan apa yang dipelajarinya.

Salah satu aplikasi ML yang menjadi sangat populer akhir-akhir ini adalah pengenalan gambar. Aplikasi ini harus dilatih terlebih dahulu – dengan kata lain, manusia harus melihat sekumpulan gambar dan memberi tahu sistem apa yang ada di dalam gambar. Setelah ribuan dan ribuan iterasi, program mengenali pola piksel yang umumnya terkait dengan kuda, anjing, kucing, bunga, pohon, rumah, dll., dan dapat menebak konten gambar dengan baik.

Banyak perusahaan berbasis web juga menggunakan ML untuk memberi daya pada mesin rekomendasi mereka. Misalnya, saat Facebook memutuskan apa yang akan ditampilkan di Kabar Beranda Anda, saat Amazon menyoroti produk yang mungkin ingin Anda beli, dan saat Netflix menyarankan film yang mungkin ingin Anda tonton, semua rekomendasi ini didasarkan pada prediksi berdasarkan pola dalam data mereka saat ini.

Perbatasan kecerdasan buatan dan pembelajaran mesin: pembelajaran mendalam, jaringan saraf, dan komputasi kognitif

Tentu saja, “ML” dan “AI” bukan satu-satunya istilah yang terkait dengan bidang ilmu komputer ini. IBM sering menggunakan istilah “komputasi kognitif”, yang agak identik dengan kecerdasan buatan.

Namun, beberapa istilah lain memiliki arti yang sangat unik. Misalnya, jaringan saraf tiruan atau jaringan saraf tiruan adalah sistem yang dirancang untuk memproses informasi dengan cara yang mirip dengan cara kerja otak biologis. Hal-hal bisa membingungkan karena jaringan saraf cenderung sangat bagus dalam pembelajaran mesin, sehingga kedua istilah ini terkadang membingungkan.

Selain itu, jaringan saraf memberikan dasar untuk pembelajaran mendalam, yang merupakan jenis pembelajaran mesin khusus. Pembelajaran mendalam menggunakan serangkaian algoritme pembelajaran mesin khusus yang bekerja di banyak lapisan. Hal ini dimungkinkan, sebagian, oleh sistem yang menggunakan unit pemrosesan grafis (GPU) untuk memproses sekumpulan besar data secara bersamaan.

Jika Anda bingung dengan semua istilah yang berbeda ini, Anda tidak sendirian. Ilmuwan komputer terus memperdebatkan definisi pasti mereka dan mungkin akan melakukannya untuk beberapa waktu mendatang. Dan karena perusahaan terus mengeluarkan uang untuk penelitian AI dan pembelajaran mesin, ada kemungkinan beberapa istilah lain akan muncul untuk menambah kompleksitas masalah.