Keamanan 🔒
OpenClaw menghubungkan model AI ke aplikasi chat dan peralatan (tools) nyata. Tidak ada sistem yang benar-benar sempurna, oleh karena itu penting untuk memahami siapa yang bisa mengakses bot Anda dan apa yang bisa dilakukan bot tersebut.Audit Keamanan: openclaw security audit
Jalankan perintah ini secara berkala untuk mengecek kerentanan pada konfigurasi Anda:
- Paparan autentikasi gateway.
- Kebijakan DM (Direct Message) dan Grup.
- Izin file sistem.
- Paparan kontrol browser.
Dasar Keamanan dalam 60 Detik
Gunakan konfigurasi dasar ini untuk tingkat keamanan yang kuat:Model Ancaman
Asisten AI Anda memiliki kemampuan untuk:- Menjalankan perintah shell.
- Membaca/menulis file.
- Mengirim pesan ke siapa pun.
- Menipu AI untuk melakukan hal berbahaya (Prompt Injection).
- Mencoba mengakses data pribadi Anda.
Strategi Pertahanan
- Identitas Pertama: Tentukan siapa yang boleh bicara dengan bot (pairing/allowlist).
- Cakupan Selanjutnya: Tentukan apa yang boleh dilakukan bot (kebijakan alat/sandboxing).
- Model Terakhir: Asumsikan model dapat dimanipulasi; desain sistem agar manipulasi tersebut memiliki dampak yang terbatas.
Tips Tambahan
- Gunakan Sandboxing: Selalu jalankan alat yang berisiko di dalam Docker (sandbox).
- Gunakan Pairing: Jangan biarkan bot terbuka untuk umum kecuali Anda benar-benar yakin.
- Batasi Hak Akses File: Jangan biarkan bot membaca folder sensitif seperti SSH keys atau folder kredensial.