Di tengah lonjakan investasi yang luar biasa di sektor kecerdasan buatan (AI), kekhawatiran tentang keamanan model-model AI yang semakin canggih juga ikut meningkat. Dalam lanskap yang terus berkembang pesat ini, sebuah perusahaan keamanan AI, Irregular, telah menjadi sorotan. Startup yang sebelumnya dikenal sebagai Pattern Labs ini baru-baru ini mengumumkan perolehan pendanaan seri B sebesar $80 juta. Pendanaan besar ini bertujuan untuk memperkuat posisi Irregular sebagai pemimpin dalam mengamankan model-model AI terdepan (frontier models). Langkah ini menandai pengakuan besar dari investor terhadap pentingnya Irregular AI security dalam ekosistem teknologi global.
Pendanaan ini bukan hanya sekadar angka, tetapi juga sebuah pernyataan bahwa keamanan AI kini menjadi salah satu tantangan paling mendesak dalam industri. Irregular bekerja sama dengan perusahaan-perusahaan AI terkemuka seperti OpenAI, Google, dan Anthropic untuk menguji dan melindungi model-model mereka dari serangan dan penyalahgunaan.
Apa Itu ‘Frontier AI Models’ dan Mengapa Mereka Butuh Perlindungan?
Istilah frontier AI models merujuk pada model-model AI berskala besar dan sangat canggih yang mendorong batas kemampuan kecerdasan buatan. Model-model ini, seperti GPT-4 dari OpenAI atau Claude dari Anthropic, memiliki kemampuan multimodal, dapat memproses dan menghasilkan teks, gambar, bahkan kode dengan tingkat akurasi yang luar biasa. Model-model ini dapat melakukan tugas-tugas yang sebelumnya dianggap mustahil, membuka jalan bagi aplikasi baru di berbagai industri.
Namun, dengan kekuatan besar datang pula risiko besar. Model-model ini dapat dimanipulasi untuk menghasilkan informasi yang salah, menyebarkan disinformasi, atau bahkan membantu aktor jahat dalam operasi siber. Mereka juga rentan terhadap serangan yang dapat mencuri data sensitif yang digunakan untuk melatih mereka atau memodifikasi perilaku mereka untuk tujuan yang merugikan. Oleh karena itu, memastikan keamanan model-model ini sebelum mereka dirilis ke publik adalah hal yang sangat krusial.
Pendekatan Irregular dalam Mengamankan AI Terdepan
Irregular memposisikan dirinya sebagai “laboratorium keamanan AI terdepan” yang bekerja sama dengan pembuat model AI untuk menguji dan memitigasi risiko keamanan. Mereka tidak hanya fokus pada celah keamanan yang sudah ada, tetapi juga berupaya memprediksi ancaman yang baru muncul sebelum mencapai dunia nyata. Pendekatan ini sangat penting karena AI terus berkembang dengan kecepatan yang luar biasa, menciptakan jenis kerentanan baru yang belum pernah terlihat sebelumnya.
Salah satu metodologi utama yang digunakan Irregular adalah kerangka kerja SOLVE, yang dirancang untuk mengukur kemampuan sebuah model dalam mendeteksi kerentanan. Mereka juga menciptakan lingkungan simulasi canggih di mana AI bertindak sebagai penyerang dan pembela, menguji ketahanan model-model baru secara intensif. Dengan cara ini, Irregular dapat mengidentifikasi di mana pertahanan model AI bertahan dan di mana mereka gagal, memberikan panduan berharga kepada pengembang.
Irregular AI Security: Bagian dari Lanskap Keamanan Siber yang Lebih Luas
Pendanaan yang diperoleh Irregular sejalan dengan tren investasi yang lebih luas di sektor keamanan siber dan AI. Tahun 2025 telah melihat aliran dana yang masif ke startup yang berfokus pada AI, dengan beberapa putaran pendanaan besar mencatatkan rekor baru. Investor kini semakin menyadari bahwa investasi besar dalam pengembangan AI harus diimbangi dengan investasi yang sama besarnya dalam keamanan. Irregular, dengan fokusnya yang spesifik pada model-model AI terdepan, berada di garis depan tren ini.
CEO Irregular, Dan Lahav, percaya bahwa keamanan AI akan segera menjadi salah satu tantangan paling menentukan dalam industri. Ia mencatat bahwa di masa depan, banyak aktivitas ekonomi akan berasal dari interaksi manusia-dengan-AI dan AI-dengan-AI. Ini akan “memecahkan tumpukan keamanan pada berbagai titik,” dan Irregular AI security berupaya menjadi solusi untuk masalah tersebut.
Masa Depan Keamanan AI: Tantangan dan Prospek
Dengan pendanaan baru ini, Irregular memiliki modal untuk mempercepat misinya. Mereka berencana untuk membangun alat, metode pengujian, dan kerangka penilaian yang akan membantu organisasi menerapkan AI dengan aman, terjamin, dan bertanggung jawab. Kerjasama erat mereka dengan laboratorium AI terkemuka juga memungkinkan mereka untuk memberikan wawasan langsung dan mitigasi yang akan membentuk cara AI dikerahkan dalam skala besar.
Namun, tantangan yang ada di depan sangatlah besar. Keamanan AI adalah target yang terus bergerak. Saat model-model AI menjadi semakin canggih dan mampu, mereka juga menjadi target yang lebih menarik bagi aktor jahat. Peran Irregular AI security akan menjadi sangat penting dalam memastikan bahwa kemajuan AI tidak datang dengan mengorbankan keamanan dan keselamatan publik. Pekerjaan ini tidak akan pernah selesai; itu adalah perlombaan tanpa akhir untuk mengantisipasi dan mengatasi kerentanan yang terus berkembang.
Baca juga:
- AI Dilatih dalam Lingkungan Virtual: Tren Baru di Silicon Valley
- OpenAI Codex GPT-5: Revolusi Baru untuk Dunia Coding
- Langkah Berani California: Parlemen Loloskan UU Keamanan AI
Informasi ini dipersembahkan oleh RajaBotak

