AI at Work Insights
Governance Gap: Apa yang Disalahpahami Pemimpin tentang AI di Tempat Kerja
Sebagian besar percakapan tata kelola AI terjadi pada level yang salah. Dewan direksi menginginkan kebijakan. Legal menginginkan proses review. Tapi kegagalan tata kelola yang sebenarnya dalam AI di tempat kerja tidak terjadi di ruang rapat. Mereka terjadi ketika seorang rep menempelkan riwayat kesepakatan pelanggan ke ChatGPT, ketika manajer menggunakan analisis kinerja yang dihasilkan AI tanpa memberi tahu orang yang sedang dievaluasi, dan ketika tidak ada yang memutuskan keputusan AI mana yang memerlukan tanda tangan manusia.
Kesenjangan ini bukan kesenjangan kebijakan. Ini adalah kesenjangan perilaku dan struktural. Dan perusahaan yang membangun sistem tata kelola nyata telah menemukan sesuatu yang tidak diketahui kelompok yang mengutamakan kebijakan: Anda tidak dapat mengatur perilaku yang pura-pura tidak terjadi.
Tiga Kegagalan yang Sudah Terjadi di Perusahaan Anda
Sebelum membangun struktur tata kelola apa pun, ada baiknya jujur tentang kegagalan yang sudah berlangsung. Di perusahaan yang belum secara eksplisit menangani tata kelola AI, tiga hal ini muncul hampir secara universal.
Kegagalan 1: Kebocoran data melalui alat AI konsumen. Masalah yang paling umum dan paling tidak dibahas. Karyawan menggunakan ChatGPT, Claude, Gemini, dan selusin alat AI konsumen lainnya untuk melakukan pekerjaan mereka. Sebagian dari ini adalah produktivitas yang tidak berbahaya. Sebagian melibatkan penempelan data pelanggan, proyeksi keuangan internal, syarat kontrak, atau informasi karyawan ke dalam alat yang kebijakan penanganan dan retensi datanya diatur oleh persyaratan layanan konsumen, bukan perjanjian data enterprise. Work Trend Index Microsoft 2024 menemukan bahwa 78% pengguna AI di tempat kerja membawa alat AI mereka sendiri — alat yang tidak pernah disetujui atau dinilai oleh perusahaan untuk risiko data.
Rep yang menempelkan tiga tahun riwayat kesepakatan pelanggan ke ChatGPT untuk mendapatkan strategi negosiasi tidak ceroboh dengan sengaja. Mereka memecahkan masalah nyata dengan alat yang paling mudah tersedia. Kegagalannya struktural: perusahaan tidak pernah memberi tahu mereka apa yang dapat diterima, tidak pernah menyediakan alternatif yang disetujui, dan tidak pernah menciptakan alasan untuk berpikir dua kali. Etika AI dan privasi data mencakup mengapa alat kelas konsumen menciptakan eksposur hukum nyata ketika digunakan dengan data pelanggan enterprise.
Kegagalan 2: Kebingungan otoritas antara output AI dan keputusan AI. Ini menciptakan masalah hilir yang paling mahal. Output AI adalah informasi. Keputusan AI adalah tindakan yang diambil atau rekomendasi yang diterima tanpa tinjauan independen. Sebagian besar organisasi belum mendefinisikan keputusan mana yang memerlukan penilaian manusia, mana yang dapat dipercepat oleh output AI, dan mana yang dapat dibuat secara otonom oleh AI dalam parameter yang ditetapkan.
Ketika manajer menggunakan skor kinerja yang dihasilkan AI dari alat produktivitas untuk membuat keputusan kompensasi atau promosi tanpa mengungkapkan bahwa AI berkontribusi pada evaluasi, itu bukan hanya kesenjangan kebijakan. Ini adalah potensi eksposur hukum ketenagakerjaan di beberapa yurisdiksi. Riset Stanford HAI tentang AI di tempat kerja mendokumentasikan kesenjangan yang berkembang antara seberapa cepat karyawan mengadopsi alat AI dan seberapa lambat organisasi menetapkan kerangka tata kelola. Regulasi seperti EU AI Act sudah memberlakukan persyaratan pengungkapan dan audit pada jenis keputusan AI berisiko tinggi ini — implikasi strategi CEO dari EU AI Act layak ditinjau sebelum siklus kinerja Anda berikutnya.
Kegagalan 3: Masalah adopsi yang tidak terlihat. Tim kepemimpinan secara konsisten meremehkan seberapa luas AI sudah tertanam dalam workflow sehari-hari. Di sebagian besar perusahaan, pada saat diskusi kebijakan AI formal terjadi di tingkat eksekutif, 40-60% karyawan sudah menggunakan alat AI setiap hari, banyak di antaranya alat yang belum disetujui atau bahkan dikatalogkan perusahaan.
Versi produktif dari audit adopsi yang tidak terlihat bukan ancaman. Ini adalah survei dan percakapan. "Alat AI apa yang Anda gunakan, untuk apa Anda menggunakannya, dan apa yang Anda butuhkan dari perusahaan untuk merasa yakin menggunakannya dengan tepat?" Percakapan tersebut menghasilkan peta sebenarnya dari tantangan tata kelola Anda.
Mengapa Kebijakan AI Gagal
Respons organisasi standar terhadap tantangan tata kelola AI adalah menulis kebijakan. Kebijakan mendapat tinjauan legal, disetujui oleh tim eksekutif, diposting di intranet, dan kemudian tidak memiliki efek terukur pada perilaku.
Kebijakan gagal karena mereka menggambarkan perilaku yang dapat diterima dan tidak dapat diterima dalam istilah abstrak tetapi tidak mengubah kondisi yang menghasilkan perilaku tersebut. Kebijakan yang mengatakan "jangan tempelkan data pelanggan ke dalam alat AI eksternal" tidak memecahkan masalah jika tidak ada alat AI internal yang disetujui untuk tugas yang ingin diselesaikan karyawan.
Sistem tata kelola berbeda dari dokumen kebijakan dalam empat cara:
Ini menyediakan alternatif yang disetujui, bukan hanya larangan. Jika menempelkan data pelanggan ke ChatGPT dilarang, harus ada cara yang disetujui untuk menyelesaikan tugas mendasar. Jika tidak, larangan tersebut adalah penambah gesekan, bukan pemecah masalah.
Ini mendefinisikan hak keputusan secara eksplisit. Siapa yang dapat menyetujui alat AI baru untuk penggunaan tim? Siapa yang memutuskan keputusan AI mana yang memerlukan tinjauan manusia? Siapa yang memiliki fungsi tata kelola AI? Tanpa hak keputusan yang jelas, tata kelola bersifat advisory.
Ini menciptakan akuntabilitas ringan tanpa birokrasi. Sistem tata kelola yang baik memiliki cara untuk menandai kekhawatiran dan melaporkan situasi ambigu tanpa memerlukan laporan insiden formal.
Ini berkembang seiring alat berkembang. Dokumen tata kelola AI dari 18 bulan lalu hampir pasti melewatkan cakupan untuk kemampuan yang kini ada dalam alat yang digunakan tim Anda. Review kuartalan adalah kadence minimum.
Pertanyaan Human-in-the-Loop
Pertanyaan tata kelola yang paling kompleks secara teknis bukan tentang data. Ini tentang otoritas keputusan: keputusan AI mana yang memerlukan manusia untuk meninjau, menyetujui, atau mengesampingkan?
Jawabannya bergantung pada taruhan dan reversibilitas. Keputusan berisiko tinggi dan tidak dapat dibalik harus selalu memiliki manusia dalam loop. Menolak aplikasi kredit secara otomatis, mengakhiri kontrak pelanggan, mengirim kampanye outreach skala besar, memecat karyawan berdasarkan data produktivitas yang dihasilkan AI: semua ini memerlukan tinjauan manusia sebelum tindakan. Panduan penerapan AI yang bertanggung jawab Anthropic memframing ini sebagai prinsip inti: sistem AI yang beroperasi di domain berisiko tinggi memerlukan arsitektur pengawasan manusia yang proporsional dengan tingkat keparahan potensi kesalahan.
Untuk AI yang tertanam CRM secara khusus, pertanyaan tata kelolanya adalah: apakah pemimpin penjualan Anda memperlakukan output ini sebagai titik data atau sebagai keputusan? Membangun budaya pipeline hygiene di mana rep dan manajer memperlakukan output model dengan skeptis adalah fondasi perilaku yang membuat lapisan tata kelola benar-benar bekerja.
Lapisan Tata Kelola Minimum yang Layak
Perusahaan SaaS 200 orang tidak memerlukan komite tata kelola, dewan review etika, atau pejabat kebijakan AI yang berdedikasi. Yang dibutuhkan adalah serangkaian perjanjian operasi, pemilik yang jelas, dan struktur akuntabilitas ringan.
Inilah tampilannya:
Registry alat AI. Daftar sederhana alat AI yang disetujui, kasus penggunaan yang disetujui, dan tier penanganan data mereka (dapat menangani data pelanggan / tidak dapat menangani data pelanggan / memerlukan persetujuan kasus per kasus). Ini membutuhkan sekitar dua jam untuk dibangun dan secara signifikan mengurangi masalah adopsi yang tidak terlihat. Referensi keamanan dan kepatuhan AI berguna sebagai input saat mengklasifikasikan alat berdasarkan tier data.
Pemetaan hak keputusan. Satu halaman yang menjawab: output AI mana yang memerlukan tinjauan manusia sebelum tindakan? Siapa yang menyetujui alat AI baru untuk penggunaan tim? Siapa yang menangani eskalasi?
Norma pengungkapan. Perjanjian bahwa ketika AI berkontribusi secara bermakna pada keputusan (rekomendasi perekrutan, evaluasi kinerja, proposal besar), kontribusi tersebut diungkapkan. Ini adalah perjanjian perilaku, bukan dokumen kebijakan, dan harus dimodelkan oleh kepemimpinan terlebih dahulu.
Jalur eskalasi ringan. Satu orang (biasanya pemimpin operasi atau people) yang merupakan titik kontak yang ditunjuk untuk pertanyaan tata kelola AI.
Scorecard Kesiapan Tata Kelola AI
Nilai organisasi Anda 1-5 pada setiap dimensi operasional ini:
Kejelasan penanganan data (1-5). Apakah karyawan tahu kategori data mana yang dapat digunakan dengan alat AI eksternal?
Akuntabilitas keputusan (1-5). Apakah Anda telah memetakan keputusan berbantuan AI mana yang memerlukan tinjauan manusia?
Kesadaran karyawan (1-5). Apakah karyawan tahu apa norma tata kelola AI itu?
Desain override (1-5). Apakah mudah bagi karyawan untuk menantang atau mengesampingkan output AI?
Jejak audit (1-5). Bisakah Anda merekonstruksi alat AI mana yang digunakan dalam keputusan jika diperlukan?
Skor 20-25 menunjukkan fondasi tata kelola yang matang. 10-15 menunjukkan kesenjangan yang paling mungkin menyebabkan masalah material dalam 12 bulan ke depan.
Agenda Workshop 90 Menit
Jika Anda ingin menghasilkan perjanjian operasi tata kelola AI yang sebenarnya dengan tim kepemimpinan Anda:
Menit 0-20: Ungkap penggunaan aktual. Setiap pemimpin berbagi dua alat AI yang digunakan tim mereka. Tidak ada penilaian, hanya pemetaan.
Menit 20-40: Petakan taruhannya. Keputusan AI mana yang berisiko tinggi dan tidak dapat dibalik?
Menit 40-60: Bangun registry alat. Klasifikasikan alat yang muncul: disetujui, perlu tinjauan, tidak disetujui. Tetapkan tier data.
Menit 60-80: Tetapkan hak keputusan. Siapa yang memiliki fungsi tata kelola? Siapa yang menyetujui alat baru? Dapatkan nama spesifik, bukan hanya peran.
Menit 80-90: Tentukan norma pengungkapan. Setuju kapan kontribusi AI perlu diungkapkan.
Outputnya adalah perjanjian operasi satu halaman, bukan dokumen kebijakan 20 halaman. Itulah perbedaan antara tata kelola sebagai teater dan tata kelola sebagai sistem.
