Skip to Main Content
Pilih bahasa
Login Agen
19 September 2024

Bagaimana Perusahaan Asuransi Dapat Menggosok Bias Bawah Sadar Dari Penilaian Risiko

Bias bawah sadar adalah salah satu cara di mana otak manusia memahami lingkungan yang kompleks. Bias ini menyortir informasi ke dalam kategori untuk pengambilan keputusan yang lebih cepat.

Di dunia di mana kelangsungan hidup dipertaruhkan, bias bawah sadar sering membantu manusia tetap hidup. Afinitas bawah sadar terhadap tanaman hijau yang sehat daripada tanaman yang layu dan menguning memberikan lebih banyak nutrisi, misalnya, sambil membebaskan energi mental untuk tugas-tugas selain menilai setiap tanaman secara individual.

Namun, saat ini, bias bawah sadar dapat menghambat pengambilan keputusan yang efektif. Jika dilatih dengan benar, kecerdasan buatan (AI) dapat membantu profesional asuransi menghindari efek negatif dari bias yang mendasarinya.

AI dan Bias: Di Mana Posisi Kita?

Liputan media tentang perilaku bias oleh algoritme kecerdasan buatan membuat bacaan yang menarik, tetapi juga cenderung mengaburkan atau mendistorsi keadaan AI dan bias seperti yang ada saat ini.

AI memang memiliki risiko mereplikasi bias yang ada dalam data pelatihannya sendiri. Studi tentang penggunaan AI awal dalam perekrutan, misalnya, menemukan bahwa ketika sebuah bisnis terutama mempekerjakan pekerja dari beberapa sekolah, kecerdasan buatan lebih cenderung melaporkan bahwa menghadiri salah satu sekolah tersebut merupakan faktor penting untuk keberhasilan perekrutan. Tidak seperti manusia, AI tidak memiliki simpanan pengalaman hidup untuk diambil; ia hanya tahu apa yang dapat dikatakan oleh data pelatihannya.

Menyadari risiko bias dalam AI, para peneliti terus mengatasi sumber bias algoritmik. Tom Bigham dan rekan-rekan peneliti di Deloitte merekomendasikan agar perusahaan asuransi mempertimbangkan tiga poin penting ketika menimbang penggunaan AI versus teknologi lain untuk suatu tugas:

Kesadaran akan masalah bias adalah salah satu cara terbaik yang dapat dilakukan pengguna manusia untuk mempersiapkan dan mengatasi bias dalam AI — dan menggunakan alat ini untuk secara efektif memerangi bias bawah sadar mereka sendiri.

Kerja Sama Manusia-Teknologi Mengurangi Bias

Memerangi bias dalam kecerdasan buatan tidak sesederhana membuat kumpulan data yang tidak memihak atau memantau pembuatan proses pembelajaran mesin. Sebaliknya, perusahaan asuransi harus mempertimbangkan seluruh konteks di mana alat AI beroperasi — termasuk bagaimana alat ini bersinggungan dengan upaya manusia.

“Jika kita ingin mengembangkan sistem AI yang dapat dipercaya, kita perlu mempertimbangkan semua faktor yang dapat mengurangi kepercayaan publik pada AI. Banyak dari faktor-faktor ini melampaui teknologi itu sendiri ke dampak teknologi,” kata Reva Schwartz di National Institute of Standards and Technology.

Sistem AI beroperasi dalam konteks. Dalam asuransi, konteks itu adalah dunia profesional dan agen asuransi, keputusan yang dibuat oleh pelanggan, dan penyimpanan data yang luas yang mendukung keputusan underwriting dan distribusi. Profesional asuransi harus terus memantau sistem AI untuk memastikan bahwa analisis dan rekomendasi mereka mematuhi praktik ilmu data yang baik dan etika bisnis organisasi.

Penggunaan kecerdasan buatan yang efektif dapat membantu memerangi bias bawah sadar manusia dengan beberapa cara:

Digunakan secara efektif, AI dapat memerangi kecenderungan manusia terhadap bias bawah sadar. Dengan demikian, AI dapat membantu perusahaan asuransi menyediakan pertanggungan asuransi yang dibutuhkan sambil menyeimbangkan biaya dan klaim, tulis peneliti Martin Mullins, Christopher P. Holland, dan Martin Cunneen dalam Patterns edisi 2021. Ketika asuransi menjadi lebih mudah diakses, kesenjangan asuransi menyusut, mengurangi dampak bencana kerugian.

Semua AI diciptakan oleh manusia. Akibatnya, itu dapat mereplikasi bias kita sendiri. Namun, jika digunakan dengan bijaksana, AI juga dapat memberikan perlindungan terhadap perilaku bawah sadar kita sendiri dan jalan pintas pengambilan keputusan.

Gambar oleh: andreypopov/©123RF.com, milkos/©123RF.com