Anthropic mengambil langkah unik dengan merekrut seorang filsuf bernama Amanda Askell untuk membimbing kecerdasan buatannya, Claude, agar dapat memahami perbedaan antara benar dan salah secara mendalam. Tugas Amanda adalah mengajarkan nilai-nilai moral, kebijaksanaan, dan eksistensi kepada Claude sekaligus mengarahkan chatbot tersebut agar memiliki kompas moral yang jelas.
Perusahaan ini termasuk salah satu startup AI yang paling diperhitungkan saat ini. Mereka fokus mengembangkan model bahasa besar (Large Language Models/LLM) yang tidak hanya cerdas, tetapi juga lebih manusiawi dan aman digunakan. Selain pelatihan melalui data besar, Anthropic percaya bahwa pendidikan etika sangat penting untuk membentuk perilaku AI yang bertanggung jawab.
Peran Filsuf dalam Pengembangan AI
Amanda Askell bertugas menganalisis pola pikir Claude, memeriksa bagaimana chatbot mengambil keputusan, serta menguji responsnya terhadap berbagai situasi etis yang kompleks. Tujuannya bukan hanya memastikan Claude dapat menjawab dengan tepat, tetapi juga memahami proses penalaran yang mendasari jawaban tersebut. Ini agar model dapat berperilaku secara konsisten dan dapat dipercaya.
Menurut biodata resminya, Amanda bekerja dengan fokus menyelaraskan pemikiran AI agar lebih jujur dan memiliki sifat karakter yang baik. Timnya mengembangkan teknik pelatihan halus yang memungkinkan intervensi tersebut diterapkan pada model AI yang lebih canggih di masa depan.
Membangun Identitas dan Batasan Keselamatan AI
Tidak sekadar membuat chatbot yang sopan, Amanda mengarahkan Claude agar memiliki identitas yang konsisten sebagai asisten yang berguna dan berperikemanusiaan. Hal ini penting untuk mencegah AI dimanipulasi atau terdorong melakukan tindakan merugikan manusia. Dengan membangun batasan etis yang jelas, Anthropic berupaya mengurangi risiko penyalahgunaan teknologi AI.
Sebelum bergabung dengan Anthropic, Amanda memiliki pengalaman di OpenAI sebagai peneliti di tim kebijakan yang menitikberatkan pada keamanan AI melalui debat dan standar kinerja manusia sebagai tolok ukur. Pengalamannya ini sangat relevan untuk meningkatkan aspek keselamatan dalam pengembangan Claude.
Respons Terhadap Kritik dan Tantangan AI
AI, khususnya chatbot seperti Claude, Google Gemini, dan OpenAI ChatGPT, mendapat kritik terkait dengan adanya pengguna yang terlalu bergantung emosional atau mendapatkan saran yang bermasalah. Banyak perusahaan lebih mengandalkan filter konten dan perbaikan teknis. Namun Anthropic menambahkan layer moral dan karakter internal agar model AI membawa nilai etika yang kuat.
Sebuah studi internal dari Anthropic juga mengidentifikasi celah potensial di model lanjutan mereka, termasuk risiko penyalahgunaan model seperti Claude Opus 4.6. Pendekatan filsafat dalam pelatihan dipandang sebagai langkah strategis untuk menciptakan pengaman yang lebih efektif di dalam AI. Ini menjadi jawaban atas kekhawatiran tersering terkait dampak negatif dari AI yang tidak terkendali.
Langkah Anthropic dalam AI yang Bertanggung Jawab
Berikut adalah beberapa poin kunci terkait langkah Anthropic dalam mengintegrasikan filosofi ke pengembangan AI:
- Merekrut ahli filsafat untuk mengajar AI mengenai moralitas dan etika.
- Melakukan pengujian mendalam terhadap pola penalaran AI di berbagai skenario kompleks.
- Memperkuat identitas AI agar tetap koheren dan tidak mudah dimanipulasi.
- Mengembangkan teknik pelatihan yang memungkinkan implementasi etika pada model lebih besar dan lebih canggih.
- Mengantisipasi potensi risiko penyalahgunaan dengan mengevaluasi celah keamanan AI secara berkala.
Pendekatan ini menunjukkan bahwa pengembangan AI tidak hanya soal kemampuan teknis, tetapi juga bagaimana AI memahami tanggung jawab sosial dan moralnya. Dengan demikian, Claude tidak hanya bertugas sebagai alat bantu, namun juga entitas yang sadar akan batasan etis dalam interaksinya.
Pergerakan Anthropic ini mencerminkan tren yang mulai diperhatikan oleh banyak perusahaan teknologi besar lainnya. Mereka berupaya menggabungkan keilmuan humaniora dengan teknologi untuk menciptakan AI yang lebih aman, manusiawi, dan selaras dengan nilai-nilai kemanusiaan. Langkah ini dapat membuka jalan untuk inovasi yang tidak hanya cerdas, melainkan juga bermoral dan bermanfaat dalam jangka panjang.





