Satu tahun lagi, platform AI lain menjadi berita utama.
Diakui, kami harus melakukan pengambilan ganda saat kami melihat berita tentang Deepseek keluar – kami awalnya berpikir kami sedang membaca tentang suhu beku yang dalam yang melanda negara bagian selatan bulan ini. Banyak dari kita mungkin tidak ingin memulai tahun baru dengan pembekuan mendalam atau Deepseek, tetapi di sinilah kita.
Melacak perkembangan angin puyuh di AI terkadang terasa ingin mencoba mengejar tupai pada kafein. Kami benar -benar mendapatkan betapa luar biasa itu.
Tetapi tidak dapat disangkal bahwa AI memiliki beberapa fasilitas yang cukup menarik untuk bisnis, seperti penghematan biaya, meningkatkan produktivitas, dan efisiensi yang lebih baik – ketika diimplementasikan dengan benar. Itu perbedaan utama karena, di sisi lain, AI dapat membawa banyak tantangan ketika tidak digunakan secara bertanggung jawab.
Karena ini adalah tahun baru yang diisi dengan kemungkinan baru, prioritas, dan platform AI, kami pikir waktu yang tepat untuk melihat ke dalam apa yang perlu diketahui oleh perusahaan jasa profesional tentang AI, risiko, dan asuransi.
Jadi istirahatlah dari menyekop salju dan bersiaplah untuk menyelam ke semua hal AI.
Ayo masuk ke dalamnya.
- Apa yang terjadi?
- Mengelola risiko AI
- AI, asuransi, dan tata kelola
- Apa yang baru dari Embroker
Berlangganan untuk tips asuransi dan industri, trik, dan banyak lagi
Apa yang terjadi?
Mengapa Deepseek seharusnya tidak mengejutkan – – Ulasan Bisnis Harvard
Ada banyak berita utama tentang kejutan Deepseek. Tapi apakah itu benar -benar perkembangan yang tidak terduga? Seperti yang ditunjukkan oleh artikel ini, teori manajemen kemungkinan dapat memprediksi Deepseek – dan juga dapat menawarkan wawasan tentang apa yang mungkin terjadi selanjutnya.
Database AI Public Deepseek Mengekspos Kunci API dan Data Pengguna Lainnya – – Zdnet
Tidak mengherankan dengan yang ini. Segera setelah berita tentang Deepseek keluar, itu diberikan bahwa akan ada masalah keamanan.
Kekuatan AI untuk menggantikan pekerja menghadapi pengawasan baru, dimulai di NY – – Bloomberg Law News
Ini harus ada di radar setiap pemilik bisnis. Sementara New York mungkin menjadi negara bagian pertama yang menggunakan tindakan penyesuaian dan pelatihan ulang pekerjanya untuk meminta pengusaha untuk mengungkapkan PHK massal yang terkait dengan adopsi AI, itu bukan satu -satunya.
Bagaimana Thomson Reuters dan Anthropic membangun AI yang sebenarnya dipercayai pengacara – – VentureBeat
Platform AI baru mungkin menjadi jawaban untuk impian AI pengacara dan profesional ‘. Artikel ini memiliki semua yang perlu Anda ketahui tentang “salah satu peluncuran AI terbesar di industri hukum.”
Mengelola risiko AI
“Jika perusahaan Anda menggunakan AI untuk menghasilkan konten, membuat keputusan, atau memengaruhi kehidupan orang lain, kemungkinan Anda akan bertanggung jawab atas apa pun yang dilakukannya – terutama ketika itu membuat kesalahan.”
Baris itu dari a The Wall Street Journal Artikel dan merupakan peringatan yang adil bagi semua bisnis menggunakan AI.
Bukan rahasia lagi bahwa setiap teknologi baru datang dengan risiko. Kekurangan AI telah didokumentasikan dengan baik, terutama untuk halusinasi (alias membuat barang), pelanggaran hak cipta, dan privasi data dan masalah keamanan. Itu Ketentuan Layanan untuk Openaipengembang chatgpt, bahkan mengakui masalah akurasi:
“Mengingat sifat probabilistik dari pembelajaran mesin, penggunaan layanan kami dapat, dalam beberapa situasi, menghasilkan output yang tidak secara akurat mencerminkan orang sungguhan, tempat, atau fakta (…) Anda harus mengevaluasi output untuk akurasi dan kesesuaian untuk kasus penggunaan Anda, termasuk menggunakan tinjauan manusia yang sesuai, sebelum menggunakan atau berbagi output dari Layanan.”
Tentu saja, tidak semua orang membaca ketentuan layanan. ;
Sebuah Artikel dari catatan IBM“Sementara organisasi mengejar manfaat AI (…) mereka tidak selalu menangani potensi risiko, seperti masalah privasi, ancaman keamanan, dan masalah etika dan hukum.”
Contohnya adalah a Pengacara di Kanada yang diduga mengajukan hukum kasus palsu Itu dibuat oleh chatgpt. Saat meninjau pengajuan, penasihat yang berlawanan menemukan bahwa beberapa kasus yang dikutip tidak ada. Pengacara Kanada digugat oleh pengacara lawan untuk biaya khusus untuk saat mereka menyia -nyiakan briefing palsu.
Pengacara, profesional keuangan, dan lainnya yang menawarkan layanan profesional juga dapat menemukan diri mereka dalam air panas yang serius jika klien mereka menuntut malpraktek atau kesalahan yang terkait dengan penggunaan AI mereka.
Jadi, bagaimana perusahaan dapat memanfaatkan AI sebaik -baiknya sambil melindungi diri dari risiko yang melekat? Dengan membuat manajemen risiko proaktif BFF perusahaan mereka. Itu termasuk:
- Menilai praktik AI, termasuk bagaimana AI digunakan dan memahami risiko yang terkait.
- Membuat pedoman untuk menggunakan AI, termasuk bagaimana informasi harus diperiksa.
- Membangun a Budaya Kesadaran Risiko di dalam perusahaan.
- Melatih karyawan tentang praktik terbaik AI.
- Memperbarui kebijakan perusahaan untuk menggabungkan penggunaan AI, pedoman, persetujuan, keterbatasan, masalah hak cipta, dll.
- Diasuransikan (sedikit lebih banyak tentang itu dalam sekejap).
- Jangan lupa tentang itu. Segalanya bergerak cepat dengan AI, jadi tetap di atas perkembangan baru, masalah keamanan, dan peraturan sangat penting.
Intinya: Ketika datang ke AI, manajemen risiko bukan hanya ide yang bagus – itu penting.
(Ps Institut Standar dan Teknologi Nasional telah mengembangkan dokumen yang hebat (dan gratis) untuk membantu organisasi menilai risiko terkait AI: Kerangka kerja manajemen risiko kecerdasan buatan dan Kerangka Manajemen Risiko Kecerdasan Buatan: Profil Kecerdasan Buatan Generatif.)
AI, asuransi, dan tata kelola
Baiklah, setelah semua malapetaka dan kesuraman tentang bahaya AI, mari kita bicara sedikit asuransi. Meskipun ada risiko yang terkait dengan AI, mari kita hadapi itu, bisnis yang menghindar darinya cenderung ditinggalkan dalam debu. Itu sebabnya melindungi perusahaan Anda adalah kunci untuk memanfaatkan peluang yang ditawarkan AI.
Aspek inti dari manajemen risiko untuk AI adalah memiliki pertanggungan asuransi yang sesuai untuk menyediakan jaring keamanan keuangan dan hukum untuk klaim yang berasal dari penggunaan terkait AI:
Setelah Anda memiliki pertanggungan asuransi untuk menangani teka -teki AI potensial, penting untuk secara teratur meninjau dan memperbarui kebijakan Anda untuk mengatasi perkembangan, kekhawatiran, dan peraturan baru untuk memastikan perusahaan Anda tetap dilindungi di belakang potensi risiko baru. Dan jika Anda tidak yakin, alih -alih memainkan permainan menebak tentang cara melindungi perusahaan Anda dari risiko AI, mengobrol dengan penyedia asuransi Anda. Pikirkan mereka sebagai mitra bisnis strategis Anda yang tepercaya untuk mengatasi risiko AI (dan lainnya).
Karena kami telah menyoroti potensi risiko AI yang dapat ditemui perusahaan Anda, Anda mungkin bertanya -tanya apa yang dimasak industri asuransi untuk mengatasi masalah AI -nya sendiri. (Peringatan spoiler: Kami tidak hanya menyilangkan jari kami dan berharap yang terbaik!)
Berita baiknya adalah bahwa industri asuransi secara aktif melangkah untuk mengatasi tantangan dan mengambil alih penggunaan AI yang bertanggung jawab. Itu Asosiasi Komisaris Asuransi Nasional (NAIC) mengeluarkan buletin model Mengenai akuntabilitas perusahaan asuransi untuk sistem AI pihak ketiga. Buletin menguraikan harapan untuk tata kelola sistem AI yang berkaitan dengan keadilan, akuntabilitas dan transparansi, manajemen risiko, dan kontrol internal.
Selain itu, Banyak negara bagian telah memperkenalkan peraturan Membutuhkan perusahaan asuransi untuk mengungkapkan penggunaan AI dalam proses pengambilan keputusan dan memberikan bukti bahwa sistem mereka bebas dari bias. Plus, perusahaan asuransi sedang mengembangkan metodologi untuk mendeteksi dan mencegah diskriminasi yang tidak diinginkan, prasangka, dan kurangnya keadilan dalam sistem mereka.
Perlu juga disebutkan bahwa efek risiko terkait AI dalam industri asuransi adalah sedikit permainan bola yang berbeda dibandingkan dengan sektor lain. “Yang penting, sifat reversibel dari keputusan AI dalam asuransi berarti bahwa risiko yang terkait berbeda secara signifikan dari yang ada di domain lain,” membaca a Ringkasan Penelitian dari Asosiasi Jenewa.
Dalam berita yang lebih baik, AI menawarkan peluang besar bagi penyedia asuransi untuk membuat penilaian risiko yang lebih akurat, bersama dengan peningkatan ketersediaan, keterjangkauan, dan personalisasi kebijakan untuk mengurangi kesenjangan cakupan dan meningkatkan pengalaman pelanggan.
Itu adalah kemenangan di sekitar untuk semua orang.
Apa yang baru dari Embroker?
Acara mendatang, cerita, dan banyak lagi
Laporan Indeks Risiko Teknologi
AI mungkin mengubah teknologi, tetapi apakah itu menciptakan risiko baru sama seperti menciptakan peluang? Laporan Indeks Risiko Teknologi kami mengungkapkan bagaimana adopsi AI memicu optimisme sambil juga meningkatkan kekhawatiran untuk privasi dan keamanan. Khususnya, di antara 200 perusahaan teknologi yang disurvei, 79% ragu -ragu untuk menggunakan AI secara internal karena risiko.
Kami menyatukan kekakuan asuransi dan teknologi canggih: CEO Embroker
CEO kami, Ben Jennings, diwawancarai untuk podcast kepemimpinan Insurtech di Insurtech Connect 2024. Dalam wawancara, Ben membagikan perspektifnya tentang industri asuransi, keseimbangan antara inovasi teknologi dan keahlian asuransi untuk meningkatkan pengalaman pelanggan, dan bagaimana Embroker memimpin gerakan Insurtech 2.0.
Masa Depan Penilaian Risiko: Bagaimana Teknologi Mengubah Manajemen Risiko
Lihatlah blog terbaru kami untuk mempelajari bagaimana AI dan teknologi mutakhir lainnya membentuk kembali penilaian risiko untuk bisnis.
hanwhalife
hanwha
asuransi terbaik
asuransi terpercaya
asuransi tabungan
hanwhalife
hanwha
asuransi terbaik
asuransi terpercaya
asuransi tabungan
hanwhalife
hanwha
berita hanwha
berita hanwhalife
berita asuransi terbaik
berita asuransi terpercaya
berita asuransi tabungan
informasi asuransi terbaik
informasi asuransi terpercaya
informasi asuransi hanwhalife