CEO OpenAI Sam Altman akan meninggalkan komisi internal yang dibuat OpenAI pada bulan Mei untuk mengawasi keputusan keamanan “kritikal” yang terkait dengan proyek dan operasi perusahaan.
Dalam sebuah pos blog hari ini, OpenAI mengatakan komite tersebut, Komite Keamanan dan Kesejahteraan, akan menjadi kelompok pengawasan dewan “independen” yang diketuai oleh profesor Carnegie Mellon Zico Kolter, dan termasuk CEO Quora Adam D’Angelo, mantan Jenderal Angkatan Darat AS Paul Nakasone, dan mantan EVP Sony Nicole Seligman. Semua adalah anggota dewan direksi OpenAI yang sudah ada.
OpenAI mencatat dalam posnya bahwa komisi melakukan tinjauan keamanan terhadap o1, model AI terbaru OpenAI, setelah Altman mengundurkan diri. Kelompok ini akan terus menerima informasi terkini dari tim keamanan dan keamanan OpenAI, kata perusahaan, dan tetap memiliki kekuatan untuk menunda peluncuran hingga masalah keamanan teratasi.
“Sebagai bagian dari pekerjaannya, Komite Keamanan dan Kesejahteraan … akan terus menerima laporan terjadwal tentang penilaian teknis untuk model-model saat ini dan mendatang, serta laporan pemantauan pasca-peluncuran yang sedang berlangsung,” tulis OpenAI dalam posnya. “[K]ami sedang membangun proses peluncuran model kami dan praktik-praktik untuk mendirikan kerangka kerja keamanan dan keamanan terintegrasi dengan kriteria keberhasilan yang jelas untuk peluncuran model.”
Pergi nya Altman dari Komite Keamanan dan Kesejahteraan datang setelah lima senator AS mengajukan pertanyaan tentang kebijakan OpenAI dalam surat yang ditujukan kepada Altman pada musim panas ini. Hampir separuh staf OpenAI yang dulunya fokus pada risiko jangka panjang AI telah pergi, dan mantan peneliti OpenAI telah mengklaim Altman menentang regulasi AI “sebenarnya” demi kebijakan yang memajukan tujuan bisnis OpenAI.
Untuk itu, OpenAI secara dramatis telah mengingkatkan belanjaannya untuk pengarahan federal, dengan menganggarkan $800.000 untuk enam bulan pertama tahun 2024 dibandingkan dengan $260.000 untuk seluruh tahun lalu. Altman juga sebelumnya pada musim semi ini bergabung dengan Dewan Keamanan dan Kesejahteraan Kecerdasan Buatan Departemen Keamanan Dalam Negeri AS, yang memberikan rekomendasi untuk pengembangan dan implementasi AI di seluruh infrastruktur kritis AS.
Meskipun Altman telah dipecat, hampir tidak ada yang menyarankan bahwa Komite Keamanan dan Kesejahteraan akan membuat keputusan sulit yang berdampak serius pada rencana komersial OpenAI. Tanda-tanda dari OpenAI sendiri mengatakan pada bulan Mei bahwa akan mencoba menanggapi “kritik yang valid” terhadap pekerjaan mereka melalui komisi ini – “kritik yang valid” tentunya tergantung pada penilaiannya masing-masing.
Dalam sebuah opini editorial untuk The Economist pada bulan Mei, mantan anggota dewan OpenAI Helen Toner dan Tasha McCauley mengatakan bahwa mereka tidak percaya OpenAI dalam bentuknya saat ini dapat dipercaya untuk memegang diri bertanggung jawab. “[B]erdasarkan pengalaman kami, kami percaya bahwa tata kelola diri tidak dapat diandalkan untuk menahan tekanan insentif keuntungan,” tulis mereka.
Dan insentif keuntungan OpenAI semakin meningkat.
Perusahaan ini dikabarkan tengah menggalang dana sebesar $6.5 miliar dalam putaran pendanaan yang akan menilai OpenAI lebih dari $150 miliar. Untuk menyelesaikan kesepakatan tersebut, OpenAI kabarnya dapat meninggalkan struktur korporasi nirlaba campuran nya, yang bertujuan untuk membatasi keuntungan investor sebagian untuk memastikan bahwa OpenAI tetap selaras dengan misi pendiriannya: mengembangkan kecerdasan buatan yang “menguntungkan semua umat manusia.”