86% CEO Meningkatkan Anggaran AI — Tapi Hanya 1 dari 5 yang Punya Tata Kelola yang Memadai

Ada tampilan layar split yang terjadi di dalam sebagian besar ruang dewan enterprise saat ini. Di satu monitor: anggaran AI terus naik. Di monitor lainnya: dasbor tata kelola yang hampir kosong.

Angka-angkanya menceritakan kisah dengan jelas. Menurut data analis yang diagregasi oleh Joget, berdasarkan penelitian Gartner dan IDC yang tersedia untuk umum, 40% aplikasi enterprise akan menggabungkan AI agent yang spesifik tugas pada akhir 2026. Dan laporan Deloitte State of AI in the Enterprise menemukan bahwa 86% organisasi yang disurvei berharap investasi AI mereka meningkat tahun ini, dengan 64% sudah aktif menerapkan AI di seluruh operasi. Itu adalah adopsi nyata pada skala nyata.

Tetapi inilah bagian yang seharusnya ada di agenda dewan berikutnya: hanya satu dari lima perusahaan yang memiliki kerangka tata kelola yang matang untuk mengawasi apa yang sebenarnya dilakukan agen otonom tersebut. Celah antara pengeluaran dan pengawasan bukan masalah CTO. Ini adalah masalah akuntabilitas CEO, dan semakin lebar setiap kuartal.

Mengapa Tata Kelola Tertinggal di Belakang Adopsi

Polanya sudah akrab. Kemampuan baru tiba yang menjanjikan keuntungan produktivitas yang terukur. Tim pilot menunjukkan hasil. Unit bisnis mulai membeli alat. IT mengejar. Dan pada saat seseorang bertanya "tapi siapa yang mengawasi apa yang dilakukan sistem ini?", agen sudah menyentuh logika penggajian, komunikasi pelanggan, dan forecast pendapatan.

AI agent bukan hanya mengotomatiskan tugas. Mereka mengambil tindakan otonom. Itu adalah perbedaan yang bermakna. Bot penjadwalan yang mengirim undangan rapat bukan hewan yang sama dengan agent yang menyelesaikan pengembalian dana pelanggan, memperbarui catatan CRM, meranking ulang lead, atau menyesuaikan logika penetapan harga berdasarkan sinyal real-time. Kelas agent yang terakhir dapat menciptakan konsekuensi hilir yang berlipat sebelum siapa pun menyadarinya.

Perusahaan telekomunikasi memimpin adopsi agentic dengan 48%, diikuti oleh ritel dan CPG dengan 47%, menurut agregasi analis yang sama. Ini adalah sektor di mana kesalahan agent bukan hanya memalukan. Mereka adalah peristiwa regulasi.

Celah tata kelola ada bukan karena perusahaan tidak peduli dengan risiko, tetapi karena kerangka tata kelola untuk agen otonom benar-benar baru. Sebagian besar fungsi risiko korporat membangun playbook mereka di sekitar perangkat lunak yang menunggu perintah manusia. Agen tidak menunggu.

Pergeseran Akuntabilitas Ada pada CEO

Ada kecenderungan untuk membingkai tata kelola AI sebagai fungsi IT atau hukum. Pembingkaian itu melewatkan eksposur. Celah tata kelola dalam AI di tempat kerja sudah muncul dalam operasi pendapatan dan alur kerja yang menghadap pelanggan — tidak hanya dalam otomatisasi back-office.

Ketika AI agent mengambil tindakan konsekuensial (dan pada akhirnya akan mengambil satu yang salah), dewan akan bertanya: "Apakah CEO mengetahui kontrol apa yang ada?" Bukan CTO. Bukan CRO. CEO.

Itu bukan hipotesis. Insiden tata kelola yang terkait dengan sistem otomatis telah menghasilkan pengawasan regulasi dalam layanan keuangan dan kesehatan. Seiring AI agent berkembang ke operasi pendapatan, layanan pelanggan, dan pengadaan, radius ledakan celah tata kelola tumbuh secara proporsional.

80% perusahaan tanpa pengawasan yang matang tidak mengambil risiko yang diperhitungkan. Mereka mengambil risiko yang tidak diperhitungkan.

Kerangka Tata Kelola 4 Langkah yang Harus Diminta CEO

Tidak ada yang mengharuskan menghentikan penerapan AI. Intinya adalah membangun pengawasan secara paralel dengan adopsi, bukan sebagai rem terhadapnya. Berikut adalah struktur praktis yang dipetakan ke cara sebagian besar enterprise menengah diorganisasikan.

Langkah 1: Inventarisasi apa yang sebenarnya berjalan. Sebelum Anda dapat mengatur AI agent, Anda perlu tahu apa yang diterapkan. Sebagian besar CEO menemukan melalui latihan ini bahwa jumlah sebenarnya adalah 3-5x dari yang diberitahukan kepada mereka. Titik awal yang berguna adalah memahami perbedaan antara AI copilot dan agent — karena persyaratan tata kelolanya berbeda secara signifikan di antara keduanya. Pengadaan AI bayangan sama nyatanya dengan shadow IT satu dekade lalu. CTO, CIO, dan kepala fungsional masing-masing memiliki bagian dari gambaran ini. Jadikan itu sebagai deliverable kuartalan bersama.

Langkah 2: Klasifikasikan berdasarkan konsekuensi. Tidak semua agent membawa risiko yang sama. Kelompokkan mereka berdasarkan cakupan tindakan otonom yang dapat mereka ambil. Agent yang menyusun email keluar untuk ditinjau adalah konsekuensi rendah. Agent yang menyetujui sendiri perubahan harga atau menandai lead sebagai tidak memenuhi syarat tanpa tinjauan manusia adalah konsekuensi tinggi. Overhead tata kelola Anda harus sesuai dengan klasifikasi tersebut.

Langkah 3: Tentukan batas keputusan secara eksplisit. Untuk agent konsekuensi tinggi apa pun, dokumentasikan apa yang dapat dan tidak dapat dilakukannya tanpa tanda tangan manusia. Ini adalah "amplop otoritas" agent. Kedengarannya mendasar, tetapi sebagian besar penerapan tidak memiliki ini secara tertulis. Itulah celah yang akan pertama kali diselidiki regulator.

Langkah 4: Buat jalur pelaporan ke dewan. Tata kelola yang matang berarti dewan menerima ringkasan berkala tentang: agent yang berjalan, klasifikasinya, insiden yang diketahui, dan pengecualian yang diberikan. Ini tidak perlu menjadi laporan yang panjang. Pembaruan satu halaman kuartalan sudah cukup untuk menunjukkan bahwa pengawasan berfungsi.

Kasus Produktivitas untuk Melakukan Ini dengan Benar

Layak diakui apa yang ada di sisi lain persamaan ini. Perusahaan yang menerapkan agent dalam fungsi pendukung melaporkan penghematan waktu 40 jam atau lebih per bulan untuk tim kecil, menurut studi kasus enterprise yang dikutip dalam penelitian. Kasus produktivitas nyata.

Tetapi keuntungan produktivitas hanya tahan lama jika struktur tata kelola di bawahnya bertahan. Agent yang menghemat 40 jam per bulan dan kemudian memicu insiden kepatuhan di bulan kedelapan bukan kemenangan produktivitas. Ini adalah kewajiban yang ditangguhkan. Mengukur ROI AI dengan benar berarti memperhitungkan risiko tersebut, bukan hanya melaporkan penghematan waktu.

CEO yang membangun tata kelola sekarang mendapatkan keduanya: keuntungan efisiensi dan kepercayaan diri yang datang dari mengetahui apa yang dilakukan sistem AI mereka.

Yang Harus Dimasukkan ke Agenda Dewan Berikutnya

Percakapan dewan tentang AI biasanya terjebak dalam dua rut: entah itu diskusi "strategi AI" tingkat tinggi tanpa dasar operasional, atau berubah menjadi briefing pengadaan alat. Sudut RevOps pada masalah yang sama ini — apa yang dilakukan AI agent di dalam alur kerja pendapatan — layak ditinjau bersama gambaran tingkat dewan. Keduanya tidak berguna.

Yang sebenarnya perlu didengar dewan lebih sederhana:

  • Berapa banyak AI agent otonom yang beroperasi dalam alur kerja material?
  • Apa klasifikasi konsekuensi masing-masing?
  • Apa batas keputusan untuk setiap agent berkonsekuensi tinggi?
  • Siapa yang memiliki fungsi tata kelola dan apa jalur eskalasi mereka?
  • Insiden apa yang terjadi, dan apa resolusinya?

Jika tim Anda tidak dapat menjawab pertanyaan-pertanyaan ini dengan spesifisitas, itulah hal yang perlu dilaporkan kepada dewan, bukan roadmap untuk memperbaikinya nanti. Celah antara pengeluaran AI dan tata kelola AI menutup ketika CEO memperlakukannya sebagai masalah akuntabilitas tingkat dewan daripada tugas teknologi hilir.

Delapan puluh enam persen organisasi meningkatkan anggaran AI. Mereka yang akan melihat kembali 2026 sebagai keunggulan kompetitif — daripada insiden tata kelola — adalah mereka yang membangun pengawasan pada kecepatan yang sama.


Data dalam artikel ini mengacu pada penelitian yang diagregasi oleh Joget dari ringkasan publik Gartner dan IDC dan laporan Deloitte State of AI in the Enterprise.