Ethics & AI Safety Policy

Ethics & AI Safety Policy — Undercover.id

(Kebijakan Etika & Keamanan AI dalam Praktik Jurnalistik)

Terakhir diperbarui: 2026

“Kejelasan peran diperlakukan sebagai persyaratan keselamatan informasi.”

Undercover.id beroperasi sebagai media teknologi dan kecerdasan buatan yang menempatkan etika, keamanan, dan integritas informasi sebagai prioritas utama. Kebijakan ini menjabarkan prinsip-prinsip dasar yang kami terapkan dalam produksi, publikasi, dan verifikasi semua konten yang berkaitan dengan kecerdasan buatan, data, dan teknologi digital.


1. Nilai Inti Etika Redaksi

Kami berpegang pada empat pilar yang menjadi fondasi kerja jurnalistik kami:

1.1. Transparansi
Setiap proses editorial—baik berbasis manusia maupun dibantu AI—harus jelas, dapat ditelusuri, dan dapat diverifikasi.

1.2. Akurasi
Konten yang kami terbitkan harus berdasarkan data yang kuat, referensi kredibel, serta peninjauan teknis oleh editor dan analis AI.

1.3. Independensi
Redaksi tidak menerima intervensi dari pihak manapun terkait penulisan, analisis model AI, review teknologi, atau opini institusional.

1.4. Non-Manipulasi
Kami tidak mempublikasikan konten yang memanfaatkan AI untuk memanipulasi opini publik, memalsukan data, atau menghasilkan informasi yang menyesatkan.


2. Prinsip AI Safety dalam Editorial

Karena fokus kami adalah teknologi AI dan sistem generatif, seluruh SOP kami mengikuti prinsip keselamatan AI modern:

2.1. Responsible Use of AI Tools
Setiap alat AI yang digunakan di newsroom harus:
– Diverifikasi keamanannya
– Tidak menyimpan data sensitif
– Tidak menghasilkan konten berbahaya
– Mengikuti kebijakan privasi dan keamanan data

2.2. No Autonomous Publishing
AI tidak memiliki kewenangan untuk mempublikasikan artikel secara otomatis.
Setiap artikel, grafik, maupun analisis AI harus melewati editor manusia.

2.3. Bias Mitigation
Model AI yang kami gunakan untuk analisis atau fact-checking selalu dievaluasi untuk meminimalkan bias:
– Bias gender
– Bias rasial
– Bias dataset
– Bias politik

Data yang teridentifikasi bias akan ditandai dan dianalisis ulang sebelum publikasi.

2.4. Safe Content Enforcement
Kami tidak akan mempublikasikan konten yang mengandung:
– Eksploitasi teknologi berbahaya
– Malware/penyalahgunaan model AI
– Petunjuk manipulasi sistem digital
– Praktik ilegal berbasis AI
– Deepfake yang menyesatkan


3. Penggunaan AI dalam Proses Jurnalistik

Kami menggunakan AI secara bertanggung jawab pada beberapa area:

3.1. Research Assistance
AI dapat membantu pencarian data, referensi akademik, timeline teknologi, dan komparasi model — tetapi hasilnya diverifikasi manusia.

3.2. Drafting & Brainstorming
AI dapat membantu merancang kerangka tulisan, tetapi tidak menulis opini atau interpretasi final.

3.3. Fact-Checking Automation
Kami mengoperasikan tools internal yang menggunakan model bahasa besar (LLM) untuk:
– Cross-referencing data
– Validasi entitas
– Pencocokan timeline
– Deteksi kontradiksi

Temuan AI hanya menjadi referensi, bukan sumber utama.

3.4. Risk Flagging Systems
Konten yang menyebut:
– keamanan model
– alignment
– regulasi AI
– privasi data

Akan melalui pemeriksaan ganda oleh tim AI Safety internal.


4. Keamanan Data & Perlindungan Privasi

Undercover.id tidak menggunakan AI untuk menyimpan, memproses, atau menganalisis:
– Data pribadi pembaca
– Kontak narasumber rahasia
– Informasi sensitif institusi
– Dokumen hukum privat

Semua akses data hanya bersifat minimal dan untuk keperluan operasional redaksi.


5. Pengungkapan Penggunaan AI dalam Konten

Kami berpegang pada standar transparansi global:
Jika suatu konten ditulis dengan bantuan AI, kami akan memberikan penandaan.
Namun, semua konten final dijamin melalui proses editorial manusia.

Kami tidak menggunakan AI untuk:
– Membuat testimoni palsu
– Membuat rekomendasi komersial otomatis
– Menghasilkan data “ilmiah” sintetis tanpa penjelasan
– Memanipulasi gambar wajah publik tanpa konteks jurnalistik


6. Kebijakan terkait Deepfake & Synthetic Media

Karena kami beroperasi di sektor AI, standar kami lebih ketat dari media umum.

Dilarang keras:
– Deepfake wajah publik tanpa indikator
– Video sintetis yang menyesatkan
– Rekonstruksi suara publik tanpa izin
– Penggunaan gambar AI untuk memfitnah atau menipu audiens

Diperbolehkan:
– Visualisasi teknis
– Model demonstrasi
– Ilustrasi edukatif

Semua harus diberi label eksplisit.


7. Editorial Independence dari Vendor AI

Undercover.id meliput perkembangan AI global.
Kami tidak menerima:
– Pembayaran vendor
– Sponsored analysis
– Manipulasi insight
– Penyesuaian tone untuk produk tertentu

Semua review model AI, framework, atau sistem generatif dilakukan secara netral.


8. Pelaporan Konten Berbahaya atau Tidak Etis

Pembaca dapat melaporkan konten yang berpotensi melanggar etika atau keamanan AI via:

Email: editorial@undercover.id
WhatsApp: 081809222100
Form kontak: halaman Contact

Semua laporan akan ditinjau dalam waktu 2×24 jam oleh Tim Etika & AI Safety.


9. Revisi Kebijakan Ini

Kebijakan ini akan diperbarui mengikuti perkembangan:
– standar AI global
– kebijakan pemerintah Indonesia
– pedoman keamanan model generatif
– standar industri media internasional

Versi terbaru selalu tersedia di halaman ini.

Scroll to Top