Platform pengujian keamanan AI baru yang dibuat di Inggris untuk memperkuat dan mempercepat evaluasi keselamatan global.
Inspect akan memudahkan berbagai kelompok untuk mengembangkan evaluasi AI, meningkatkan kolaborasi dengan peneliti dan pengembang.
AI Safety Institute, Inkubator untuk AI (i.AI) dan Nomor 10 yang mempertemukan talenta AI terkemuka untuk dengan cepat menguji dan mengembangkan alat keamanan AI sumber terbuka baru.
Evaluasi keselamatan AI global akan ditingkatkan seiring dengan tersedianya platform evaluasi Institut Keamanan AI Inggris untuk komunitas AI global hari ini (Jumat, 10 Mei), yang membuka jalan bagi inovasi model AI yang aman.
Setelah mendirikan AI Safety Institute pertama di dunia yang didukung negara, Inggris melanjutkan upaya menuju kolaborasi global yang lebih besar dalam evaluasi keselamatan AI dengan dirilisnya platform evaluasi Inspect yang dikembangkan oleh AI Safety Institute. Dengan menyediakan Inspect bagi komunitas global, Institut ini membantu mempercepat pekerjaan evaluasi keselamatan AI yang dilakukan di seluruh dunia, sehingga menghasilkan pengujian keselamatan yang lebih baik dan pengembangan model yang lebih aman. Hal ini akan memungkinkan adanya pendekatan yang konsisten terhadap evaluasi keselamatan AI di seluruh dunia.
Inspect adalah perpustakaan perangkat lunak yang memungkinkan penguji – mulai dari perusahaan rintisan, akademisi, dan pengembang AI hingga pemerintah internasional – untuk menilai kemampuan spesifik masing-masing model dan kemudian menghasilkan skor berdasarkan hasilnya. Inspect dapat digunakan untuk mengevaluasi model di berbagai bidang, termasuk pengetahuan inti, kemampuan bernalar, dan kemampuan otonom. Dirilis melalui lisensi open source, artinya Inspect kini tersedia secara gratis untuk digunakan oleh komunitas AI.
Platform ini tersedia mulai hari ini – pertama kalinya platform pengujian keamanan AI yang dipelopori oleh badan yang didukung negara dirilis untuk penggunaan yang lebih luas.
Dipicu oleh beberapa pemikir AI terkemuka di Inggris, peluncurannya terjadi pada saat yang penting dalam pengembangan AI, karena model-model yang lebih kuat diperkirakan akan memasuki pasar pada tahun 2024, sehingga dorongan terhadap pengembangan AI yang aman dan bertanggung jawab menjadi lebih mendesak dari sebelumnya. .
Menteri Luar Negeri Bidang Sains, Inovasi, dan Teknologi, Michelle Donelan mengatakan:
Sebagai bagian dari komitmen kepemimpinan Inggris dalam bidang keselamatan AI, saya telah menyetujui platform pengujian AI Safety Institute – yang disebut Inspect – menjadi open source. Hal ini menempatkan kecerdikan Inggris sebagai inti dari upaya global untuk menjadikan AI aman, dan memperkuat posisi kita sebagai pemimpin dunia dalam bidang ini.
Alasan saya begitu tertarik dengan hal ini, dan mengapa saya menggunakan Inspect secara open source, adalah karena manfaat luar biasa yang bisa kita peroleh jika kita berani menghadapi risiko AI. Mulai dari Layanan Kesehatan Nasional (NHS) hingga jaringan transportasi, AI yang aman akan meningkatkan taraf hidup secara nyata – itulah tujuan awal saya terjun ke dunia politik.
Ketua Institut Keamanan AI Ian Hogarth mengatakan:
Sebagai Ketua Institut Keamanan AI, saya bangga bahwa kami menjadikan platform Inspeksi kami sebagai sumber terbuka.
Kolaborasi yang sukses dalam pengujian keamanan AI berarti memiliki pendekatan evaluasi yang dapat diakses dan dibagikan, dan kami berharap Inspect dapat menjadi landasan bagi Institut Keamanan AI, organisasi penelitian, dan akademisi.
Kami terinspirasi oleh beberapa pengembang AI open source terkemuka – terutama proyek seperti GPT-NeoX, OLMo, atau Pythia yang semuanya memiliki data pelatihan yang tersedia untuk umum serta kode pelatihan dan evaluasi berlisensi OSI, bobot model, dan pos pemeriksaan yang dilatih sebagian. Ini adalah upaya kami untuk berkontribusi kembali.
Kami berharap komunitas AI global menggunakan Inspect untuk tidak hanya melakukan uji keamanan model mereka sendiri, namun juga membantu beradaptasi dan membangun platform sumber terbuka sehingga kami dapat menghasilkan evaluasi berkualitas tinggi secara menyeluruh.
Bersamaan dengan peluncuran Inspect, AI Safety Institute, Incubator for AI (i.AI) dan Number 10 akan menyatukan talenta AI terkemuka dari berbagai bidang untuk dengan cepat menguji dan mengembangkan alat keamanan AI sumber terbuka yang baru. Alat sumber terbuka memudahkan pengembang untuk mengintegrasikannya ke dalam model mereka, memberi mereka pemahaman yang lebih baik tentang cara kerjanya dan bagaimana alat tersebut dapat dibuat seaman mungkin. Rincian lebih lanjut akan diumumkan pada waktunya.