Bagaimana Konsumen Dapat Mempengaruhi Siapa yang Mengendalikan AI
TREND TEKNOLOGI – Pengembangan AI saat ini hanya dilakukan oleh sejumlah kecil perusahaan. Kewaspadaan publik dapat membantu memastikan mereka mematuhi etika dalam penggunaan teknologi.
Warren Buffett benar soal AI. Investor miliarder dan filantropis itu mengatakan kepada CNN awal tahun ini: “Kita membiarkan jin keluar dari botol ketika kita mengembangkan senjata nuklir… AI agak mirip sebagian sudah keluar dari botol.”
Alasan Buffett adalah, seperti halnya senjata nuklir, AI berpotensi menimbulkan konsekuensi besar dalam skala besar, baik positif maupun negatif.
Dan, seperti senjata nuklir, AI terpusat di tangan segelintir orang. Dalam kasus AI, perusahaan teknologi dan negara. Ini adalah perbandingan yang jarang dibicarakan.
Saat perusahaan-perusahaan ini mendorong batasan inovasi, sebuah pertanyaan kritis muncul: Apakah kita mengorbankan keadilan dan kesejahteraan masyarakat demi kemajuan?
Sebuah studi menunjukkan bahwa pengaruh Big Tech ada di mana-mana dalam semua aliran proses kebijakan, yang memperkuat posisi mereka sebagai “pengusaha kebijakan super”.
Hal ini memungkinkan mereka mengarahkan kebijakan yang menguntungkan kepentingan mereka, sering kali dengan mengorbankan kepentingan masyarakat yang lebih luas.
Kekuatan yang terkonsentrasi ini juga memungkinkan korporasi-korporasi ini untuk membentuk teknologi AI menggunakan kumpulan data besar yang mencerminkan demografi dan perilaku tertentu, sering kali dengan mengorbankan masyarakat yang lebih luas.
Hasilnya adalah lanskap teknologi yang, meskipun berkembang pesat, mungkin secara tidak sengaja memperdalam kesenjangan sosial dan melestarikan bias yang ada.
Kekhawatiran etika
Kekhawatiran etika yang timbul dari pemusatan kekuasaan ini sangatlah signifikan.
Jika model AI terutama dilatih pada data yang mencerminkan perilaku satu demografi, model tersebut mungkin berkinerja buruk saat berinteraksi dengan atau membuat keputusan tentang demografi lain, yang berpotensi menyebabkan diskriminasi dan ketidakadilan sosial.
Penguatan bias ini bukan sekadar kekhawatiran teoritis, tetapi kenyataan mendesak yang menuntut perhatian segera.
Porcha Woodruff, misalnya, seorang wanita kulit hitam yang sedang hamil, mendapati dirinya ditangkap secara salah karena kesalahan pengenalan wajah sebuah pengingat nyata akan konsekuensi AI di dunia nyata.
Dalam perawatan kesehatan, algoritma yang banyak digunakan sangat meremehkan kebutuhan pasien kulit hitam, yang menyebabkan perawatan yang tidak memadai dan memperparah kesenjangan yang ada. Kasus-kasus ini menggarisbawahi pola yang meresahkan: sistem AI, yang dilatih berdasarkan data yang bias, memperbesar ketidaksetaraan sosial.
Pertimbangkan algoritma yang menggerakkan sistem AI ini, yang dikembangkan terutama dalam lingkungan yang kurang memiliki pengawasan memadai terkait keadilan dan inklusivitas.
Mengembangkan bias
Akibatnya, aplikasi AI di berbagai bidang seperti pengenalan wajah, praktik perekrutan, dan persetujuan pinjaman mungkin akan menghasilkan hasil yang bias, yang berdampak tidak proporsional pada komunitas yang kurang terwakili.
Risiko ini diperparah oleh model bisnis korporasi-korporasi ini, yang lebih menekankan pengembangan dan penerapan cepat daripada telaah etika yang ketat, serta mendahulukan keuntungan daripada pertimbangan yang tepat terhadap dampak sosial jangka panjang.
Untuk mengatasi tantangan ini, perubahan dalam pengembangan AI sangat dibutuhkan.
Memperluas pengaruh di luar perusahaan teknologi besar agar mencakup peneliti independen, ahli etika, kelompok kepentingan publik, dan regulator pemerintah yang bekerja sama untuk menetapkan pedoman yang memprioritaskan pertimbangan etika dan kesejahteraan masyarakat dalam pengembangan AI akan menjadi awal yang baik.
Pemerintah memiliki peran yang sangat penting untuk dimainkan.
Penegakan antimonopoli yang ketat akan membatasi kekuatan perusahaan teknologi besar dan mendorong persaingan.
Pengawas independen yang berwenang memberi sanksi terhadap praktik Big Tech juga akan membantu meningkatkan partisipasi publik dalam pembuatan kebijakan dan mengharuskan transparansi dalam algoritma dan praktik data perusahaan teknologi.
Kerja sama global dalam pengembangan standar etika dan investasi dalam program pendidikan untuk memberdayakan warga negara guna memahami dampak teknologi pada masyarakat akan semakin mendukung upaya ini.
Dunia akademis juga dapat berperan. Para peneliti dapat mengembangkan metode untuk mendeteksi dan menetralkan bias dalam algoritma AI dan data pelatihan. Dengan melibatkan publik, dunia akademis dapat memastikan bahwa berbagai pendapat didengar dalam pembentukan kebijakan AI.
Kewaspadaan dan partisipasi publik sangat diperlukan untuk meminta pertanggungjawaban perusahaan dan pemerintah. Publik dapat memberikan tekanan pasar dengan memilih produk AI dari perusahaan yang menunjukkan praktik etis.
Sementara regulasi AI akan membantu mencegah terpusatnya kekuasaan di kalangan segelintir orang, tindakan antimonopoli yang mengekang perilaku monopoli, mendorong standar terbuka, dan mendukung perusahaan kecil serta perusahaan rintisan dapat membantu mengarahkan kemajuan AI menuju kebaikan publik.
Kesempatan unik
Meskipun demikian, tantangannya tetap bahwa pengembangan AI memerlukan data dan sumber daya komputasi yang besar, yang dapat menjadi rintangan signifikan bagi pelaku usaha yang lebih kecil.
Di sinilah AI sumber terbuka menghadirkan peluang unik untuk mendemokratisasi akses, yang berpotensi menciptakan lebih banyak inovasi di berbagai sektor.
Memberikan akses yang sama kepada para peneliti, perusahaan rintisan, dan lembaga pendidikan untuk terlibat dengan perangkat AI canggih akan menyamakan kedudukan.
Masa depan AI tidak dapat ditentukan sebelumnya. Mengambil tindakan sekarang dapat membentuk lanskap teknologi yang mencerminkan nilai dan aspirasi kolektif kita, memastikan manfaat AI dibagikan secara merata di seluruh masyarakat. Pertanyaannya bukanlah apakah kita mampu mengambil langkah-langkah ini, tetapi apakah kita mampu untuk tidak melakukannya.