Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
CFD
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Claude Code baru /goals perintah: memisahkan eksekusi dan evaluasi, menghindari agen AI bermalas-malasan dan berbohong
Anthropic untuk Claude Code meluncurkan perintah /goals, memisahkan penilaian penyelesaian tugas dari pelaksanaan tugas ke dalam dua model yang berbeda, karena membiarkan AI menilai pekerjaannya sendiri secara arsitektural adalah desain yang cacat.
(Latar belakang: Claude Code mengumumkan peningkatan batas penggunaan Token mingguan sebesar 50%!Selama dua bulan Anthropic menguasai ekosistem pengembang)
(Tambahan latar: Fitur otomatisasi Claude Code Routines diluncurkan: mendukung penjadwalan, API, dan pemicu acara GitHub)
Anda mungkin pernah mengalami situasi ini: AI menyelesaikan desain kode, dan memberi respons bahwa tugas telah selesai. Tapi beberapa hari kemudian Anda baru menyadari, beberapa modul sama sekali tidak dikompilasi. Ini bukan karena kemampuan model yang kurang, melainkan karena model sendiri memutuskan bahwa ia “sudah selesai”, padahal sebenarnya belum.
Untuk memperbaiki situasi ini, Anthropic minggu ini meluncurkan perintah /goals baru untuk Claude Code. Logikanya sangat langsung: model yang menjalankan tugas dan model yang menilai apakah tugas sudah selesai haruslah dua peran yang berbeda. Model yang sama tidak bisa memainkan kedua peran ini sekaligus, karena ia akan selalu menjadi penilai terburuk dari pekerjaannya sendiri.
Mengapa agen AI bisa “lebih awal berhenti bekerja”
Pekerjaan agen pengkodean AI adalah sebuah siklus: membaca file, menjalankan perintah, memodifikasi kode, lalu menilai apakah tugas sudah selesai. Masalahnya terletak pada langkah terakhir ini.
Konsep konteks yang terkumpul selama proses: langkah yang sudah selesai, metode yang sudah dicoba, kesalahan yang pernah terjadi… membuat model memiliki bias terhadap kemajuan dirinya sendiri. Ia cenderung menganggap “saya sudah banyak melakukan” sama dengan “saya sudah selesai”. Masalah ini sangat mahal di lingkungan perusahaan: jika proses migrasi kode atau pengujian perbaikan dihentikan sebelum tahap akhir, biasanya baru diketahui beberapa hari kemudian.
Saat ini, ada beberapa solusi industri. OpenAI membiarkan model agen memutuskan kapan harus berhenti sendiri, dan mengizinkan pengembang mengintegrasikan evaluator eksternal. Google ADK mendukung evaluasi independen melalui LoopAgent, dan LangGraph juga mendukung pola serupa, tetapi solusi ini memiliki kesamaan: node kritik (critic node) dan logika penghentian harus dirancang pengembang sendiri, platform tidak menyediakan default.
Satu perintah, dua model
Desain inti dari /goals adalah memisahkan secara resmi “pelaksanaan” dan “penilaian” menjadi dua peran. Pengembang memasukkan kondisi target, misalnya:
/goal test/auth semua pengujian di direktori lolos, dan hasil pemeriksaan lint bersih
Setiap kali agen mencoba menyelesaikan pekerjaan, model penilai akan mengambil alih untuk memverifikasi. Model penilai secara default menggunakan Claude Haiku (model yang lebih ringan dari Anthropic). Alasan memilih model kecil sangat sederhana: evaluator hanya perlu melakukan penilaian biner, memenuhi syarat atau tidak, tidak memerlukan kemampuan inferensi dari model besar.
Jika kondisi tidak terpenuhi, agen akan melanjutkan eksekusi; jika terpenuhi, model penilai akan mencatat hasil ke dalam riwayat percakapan dan menghapus target. Seluruh proses ini dilakukan di dalam Claude Code, tanpa perlu platform observabilitas pihak ketiga atau sistem log kustom.
Anthropic menyatakan bahwa kondisi target yang efektif biasanya memerlukan tiga elemen: kondisi akhir yang dapat diukur (hasil pengujian, kode keluar build, jumlah file tertentu); metode verifikasi yang jelas (misalnya “npm test keluar dengan kode 0”); dan batasan yang tidak boleh diubah selama proses (misalnya “tidak boleh mengubah file pengujian lain”).