Berita

Beberapa Model OpenAI Lolos Beberapa Uji Untuk NLP

[Ilustrasi Oleh Pixabay]

Organisasi nirlaba yang bergerak dalam penelitian kecerdasan buatan, OpenAI, hari ini memperlihatkan koleksi model kecerdasan buatan yang tidak hanya dapat menghasilkan teks yang koheren dengan kata atau kalimat, tetapi mencapai kinerja canggih (atau hampir canggih) pada berbagai tes NLP (Natural Language Processing).

Selama empat tahun terakhir ini, perusahaan yang didukung oleh tokoh-tokoh teknologi, seperti Reid Hoffman dan Peter Thiel, telah melakukan berbagai macam penelitian pada sistem otonom.

Bahkan, beberapa hasilnya dapat mencapai kinerja dengan tingkat setara manusia super di permainan Pong, Montezuma’s Revenge, Dota, dan belum lagi robot berupa tangan mekanik dengan ketangkasan seperti manusia.

Melalui laporan terbaru yang diterbitkannya, OpenAI bahkan menyebutkan bahwa beberapa model bahasa yang cukup besar, dalam beberapa kasus yang memiliki dua belas kali ukuran model OpenAI sebelumnya, dapat mempelajari tugas-tugas NLP tanpa kumpulan data khusus atau modifikasi.

Capaian ini tak terlepas dari adanya Transformers, yakni jenis arsitektur saraf yang relatif baru yang diperkenalkan dalam makalah 2017, yang ditulis bersama oleh para ilmuwan di Google Brain, divisi penelitian AI Google.

Transformer menambah perhatian pada campuran jaringan neural di dalam model-model tersebut. Tweak arsitektural ini memungkinkan model OpenAI untuk menanyakan pembelajaran di masa lalu untuk informasi yang relevan, seperti nama orang yang disebutkan dalam sebuah cerita atau benda di sebuah ruangan.

Selama eksperimen yang melibatkan transfer domain, di mana model tersebut tidak dilatih sebelumnya tentang set data apa pun khusus untuk pengujian, OpenAI mengatakan bahwa yang terbesar dari empat sistem bahasanya – OpenAI GPT-2 – berhasil mendapatkan status yang cukup bagus dalam tujuh dari delapan tolok ukur.

Tujuh dari delapan tolok ukur tersebut termasuk LAMBADA (tes kemampuan model untuk memodelkan ketergantungan jangka panjang dalam teks), Tantangan Skema Winograd (ukuran kapasitas untuk menyelesaikan ambiguitas dalam teks), dan Penn Treebank ( kumpulan jutaan kata dari teks yang ditandai bagian dari ucapan).

Namun tentu saja, hal ini belum cukup sempurna. Tidak ada model OpenAI yang dapat melihat lebih dari satu halaman data pada suatu waktu, dan mereka tidak sepenuhnya konsisten, di mana mereka kadang-kadang menipu angka atau mengganti topik dengan cara yang tidak masuk akal.

OpenAI cukup sadar akan hal ini, untuk itu mari kita tunggu saja bagaimana peningkatan model OpenAI tersebut beberapa waktu ke depan.

[Sumber: Venturebeat]

Share
Published by
Sukindar
Tags: OpenAI

Recent Posts

Cisco Peringkatkan Kerentanan Kritis Dalam Cisco Data Center Network Manager

Cisco mengungkapkan tiga kerentanan dalam layanannya. Ini dia penanganannya!

January 7, 2020

Optimal idM Meluncurkan OptimalCloud Partner Platform

Ini ulasan mengenai keuntungan OptimalCloud Partner Platform, platform baru milik Optimal idM!

January 6, 2020

Google Siapkan Coral Accelerator Module dan Coral Dev Board Mini untuk Tahun 2020

Google kenalkan dua koleksi baru dari Coral. Dua koleksi baru ini bakal menambah kemampuan pengembangan…

January 3, 2020

Google Kembangkan Model Kecerdasan Buatan Untuk Deteksi Kanker Payudara

Raksasa Google baru saja mengembangkan sistem pemindaian kanker payudara berbasis kecerdasan buatan. Bagaimana hasilnya, berikut…

January 3, 2020

Google Dorong Fitur Bubbles Notifications Ke Versi Stabil

Meski dikenalkan bersamaan dengan Android 10 Beta, sampai kini Bubbles Notifications masih dalam tahap pengembangan.…

December 31, 2019

Samsung Siapkan Lima Proyek dan Empat Startup C-Lab Untuk CES 2020

Samsung akan kembali memamerkan hasil program C-Lab ke ajang CES 2020. Ini dia proyek dan…

December 30, 2019