Untuk memberikan perempuan akademisi yang berfokus pada AI dan orang lainnya waktu yang layak - dan tertunda - di sorotan, TechCrunch meluncurkan serangkaian wawancara yang difokuskan pada perempuan luar biasa yang telah memberikan kontribusi pada revolusi AI. Kami akan menerbitkan beberapa artikel sepanjang tahun ini ketika booming AI terus berlanjut, menyoroti karya-karya kunci yang sering tidak diakui. Baca lebih banyak profil di sini.
Urvashi Aneja adalah direktur pendiri Digital Futures Lab, sebuah upaya penelitian lintas disiplin yang bertujuan untuk mempelajari interaksi antara teknologi dan masyarakat di Dunia Selatan. Dia juga merupakan sesama rekan di program Asia Pasifik di Chatham House, sebuah institut kebijakan independen yang berbasis di London.
Penelitian saat ini Aneja berfokus pada dampak sosial dari sistem pengambilan keputusan algoritmik di India, di mana dia berbasis, dan tata kelola platform. Aneja baru-baru ini menjadi penulis sebuah studi tentang penggunaan AI saat ini di India, meninjau kasus penggunaan di sektor-sektor termasuk kepolisian dan pertanian.
P&J
Dengan singkat, bagaimana Anda memulai di bidang AI? Apa yang menarik Anda ke bidang ini?
Saya memulai karir saya dalam penelitian dan keterlibatan kebijakan di sektor kemanusiaan. Selama beberapa tahun, saya mempelajari penggunaan teknologi digital dalam krisis yang berlarut-larut di konteks berdaya dukacita. Saya segera belajar bahwa ada garis tipis antara inovasi dan eksperimen, terutama ketika berurusan dengan populasi rentan. Pembelajaran dari pengalaman ini membuat saya sangat prihatin tentang narasi solusi teknologi di sekitar potensi teknologi digital, terutama AI. Pada saat yang sama, India telah meluncurkan misi Digital India dan Strategi Nasional untuk kecerdasan Buatan. Saya prihatin dengan narasi dominan yang melihat AI sebagai peluru perak untuk masalah sosial-ekonomi yang kompleks India, dan lengkapnya kurangnya diskusi kritis tentang masalah tersebut.
Karya apa yang paling membuat Anda bangga (di bidang AI)?
Saya bangga bahwa kami telah mampu menarik perhatian pada politik ekonomi produksi AI serta implikasi lebih luas untuk keadilan sosial, hubungan kerja dan keberlanjutan lingkungan. Seringkali narasi tentang AI berfokus pada keuntungan aplikasi tertentu, dan setidaknya, manfaat dan risiko aplikasi tersebut. Tapi ini melewatkan hutan untuk pohon - lensa berorientasi produk mengaburkan dampak struktural yang lebih luas seperti kontribusi AI terhadap ketidakadilan epistem, penurunan keterampilan kerja dan pemertahanan kekuatan yang tidak dipertanggungjawabkan di Dunia Mayoritas. Saya juga bangga bahwa kami telah mampu menerjemahkan kekhawatiran ini ke dalam kebijakan dan peraturan konkret - baik merancang pedoman pengadaan untuk penggunaan AI di sektor publik maupun memberikan bukti dalam proses hukum terhadap perusahaan Big Tech di Dunia Mayoritas.
Bagaimana Anda mengatasi tantangan industri teknologi yang didominasi laki-laki, dan, secara ekstensif, industri AI yang didominasi laki-laki?
Dengan biarkan karya saya bicara. Dan dengan terus bertanya: mengapa?
Apa kiat yang akan Anda berikan kepada perempuan yang ingin memasuki bidang AI?
Kembangkan pengetahuan dan keahlian Anda. Pastikan pemahaman teknis Anda tentang isu-isu berbasis AI kuat, tetapi jangan hanya fokus secara sempit hanya pada AI. Sebaliknya, pelajari secara luas sehingga Anda dapat menghubungkan antar bidang dan disiplin. Tidak cukup banyak orang yang memahami AI sebagai sistem sosio-teknis yang merupakan produk sejarah dan budaya.
Apa beberapa isu paling mendesak yang dihadapi AI saat berkembang?
Saya pikir isu paling mendesak adalah konsentrasi kekuatan dalam beberapa perusahaan teknologi. Meskipun bukan hal baru, masalah ini diperparah oleh perkembangan baru dalam model bahasa dan AI generatif yang besar. Banyak perusahaan ini sekarang menimbulkan rasa takut tentang risiko eksistensial dari AI. Bukan hanya ini adalah gangguan dari bahaya yang ada, tetapi juga menempatkan perusahaan-perusahaan ini sebagai penting untuk mengatasi bahaya terkait AI. Dalam banyak hal, kita kehilangan sebagian momentum dari "tech-lash" yang muncul setelah episode Cambridge Analytica. Di tempat-tempat seperti India, saya juga khawatir bahwa AI diarahkan sebagai hal yang diperlukan untuk pengembangan sosial-ekonomi, menyajikan kesempatan untuk melompati tantangan yang tetap ada. Tidak hanya ini membesar-besarkan potensi AI, tetapi juga mengabaikan fakta bahwa tidak mungkin melewatkan perkembangan lembaga yang diperlukan untuk mengembangkan perlindungan. Salah satu isu lain yang tidak kita pertimbangkan cukup serius adalah dampak lingkungan AI - lintasan saat ini kemungkinan tidak berkelanjutan. Dalam ekosistem saat ini, mereka yang paling rentan terhadap dampak perubahan iklim kemungkinan tidak akan menjadi penerima inovasi AI.
Apa beberapa isu yang harus diketahui pengguna AI?
Pengguna perlu diketahui bahwa AI bukanlah sihir, atau bahkan tidak sesuai dengan kecerdasan manusia. Ini adalah bentuk statistik komputasi yang memiliki banyak kegunaan yang bermanfaat, tetapi pada akhirnya hanya merupakan tebakan probabilitas berdasarkan pola historis atau sebelumnya. Saya yakin ada beberapa masalah lain yang juga harus diketahui pengguna, tetapi saya ingin memperingatkan bahwa kita harus waspada terhadap upaya mengalihkan tanggung jawab ke bawah arus, ke pengguna. Saya melihat ini paling baru-baru ini dengan penggunaan alat AI generatif di konteks berdaya dukacita di Dunia Mayoritas - daripada hati-hati tentang teknologi eksperimental dan tidak dapat diandalkan ini, fokus sering beralih pada bagaimana pengguna akhir, seperti petani atau pekerja kesehatan garis depan, perlu meningkatkan keterampilan.
Apa cara terbaik untuk membangun AI dengan tanggung jawab?
Ini harus dimulai dengan menilai kebutuhan akan AI itu sendiri. Apakah ada masalah yang dapat dipecahkan secara unik oleh AI atau apakah solusi lain mungkin? Dan jika kita akan membangun AI, apakah model yang kompleks, kotak hitam diperlukan, atau mungkin model berbasis logika yang lebih sederhana akan sama baiknya? Kita juga perlu memusatkan kembali pengetahuan domain ke dalam pembangunan AI. Dalam obsesi dengan data besar, kita telah mengorbankan teori - kita perlu membangun teori perubahan berdasarkan pengetahuan domain dan ini harus menjadi dasar dari model yang kita bangun, bukan hanya data besar semata. Ini tentu saja selain masalah kunci seperti partisipasi, tim inklusif, hak-hak buruh, dan sebagainya.
Bagaimana investor dapat lebih mendorong AI yang bertanggung jawab?
Investor perlu mempertimbangkan seluruh siklus produksi AI - bukan hanya keluaran atau hasil dari aplikasi AI. Ini akan memerlukan melihat berbagai isu seperti apakah tenaga kerja dinilai dengan adil, dampak lingkungan, model bisnis perusahaan (misalnya apakah didasarkan pada surveilans komersial?) dan langkah-langkah akuntabilitas internal dalam perusahaan. Investor juga perlu meminta bukti yang lebih baik dan lebih ketat tentang manfaat yang seharusnya dari AI.