जब जीवन बीमा आपको AI देता है, तो क्या आपको नींबू पानी बनाना चाहिए?

एक बढ़ती प्रवृत्ति बीमा कंपनियों को अपने संचालन में कृत्रिम बुद्धि का उपयोग करने की चिंता करती है। उन तरीकों के बारे में विज्ञापन अक्सर उल्लेख करते हैं कि कैसे ग्राहक नीतियों के लिए तेजी से साइन अप कर सकते हैं, अधिक कुशलता से दावा दायर कर सकते हैं और 24/7 सहायता प्राप्त कर सकते हैं, सभी एआई के लिए धन्यवाद।

हालाँकि, लेमोनेड का एक हालिया ट्विटर थ्रेड – एक बीमा ब्रांड जो एआई का उपयोग करता है – इस अभ्यास के संभावित मुद्दों पर प्रकाश डालता है। लोगों ने इसे देखा, फिर तय किया कि लेमोनेड एआई दृष्टिकोण इस बात पर प्रकाश डालता है कि तकनीक कैसे नुकसान पहुंचा सकती है और इसके आवेदन के आधार पर मदद कर सकती है।

ट्विटर पारदर्शिता अलार्म उठाती है

कई कंपनियां इस बारे में विवरण नहीं देती हैं कि वे एआई का उपयोग कैसे करती हैं। विचार यह है कि एआई को रहस्य में छिपाकर रखने से कंपनी की मालिकाना तकनीक की रक्षा करते हुए भविष्य की पेशकश का आभास होता है।

जब लेमोनेड ने लोगों को यह बताने के लिए ट्विटर का सहारा लिया कि इसका एआई कैसे काम करता है, तो संचार यह बताते हुए शुरू हुआ कि यह जानकारी का उपयोग कैसे करता है। उदाहरण के लिए, एक लेमोनेड ट्वीट ने पुष्टि की कि यह पारंपरिक बीमा कंपनियों की तुलना में लगभग 100 गुना अधिक डेटा एकत्र करता है।

कंपनी का एआई चैटबॉट ग्राहकों से 13 सवाल कैसे पूछता है, यह बताते हुए थ्रेड जारी रहा। ऐसा करते हुए, यह 1,600 से अधिक डेटा पॉइंट एकत्र करता है। 20-40 अन्य बीमाकर्ताओं की तुलना में, ट्वीट जारी रहा। कंपनी इस जानकारी का उपयोग ग्राहक के संबंधित जोखिम को मापने के लिए करती है, जिससे लेमोनेड को इसकी परिचालन लागत और हानि अनुपात को कम करने में मदद मिलती है।

सात-संदेश स्ट्रिंग का चौथा ट्वीट और भी अधिक भौं-उठाने वाले क्षेत्र में प्रवेश किया, यह सुझाव देते हुए कि लेमोनेड एआई एनालिटिक्स धोखाधड़ी के दावों से जुड़े अशाब्दिक संकेतों का पता लगाता है। कंपनी की प्रक्रिया में ग्राहक अपने फोन का उपयोग करके वीडियो शूट करने के लिए बताते हैं कि क्या हुआ।

ट्विटर उपयोगकर्ताओं ने उस दृष्टिकोण की नैतिकता पर सवाल उठाया, जिसमें गैर-जिम्मेदार कंप्यूटरों के साथ समस्याओं की ओर इशारा करते हुए, जीवन को बदलने वाले दावों के बारे में निर्णय लिया, जैसे कि जले हुए घरों के लिए। एक ने इस अभ्यास को "पारंपरिक झूठ डिटेक्टर परीक्षण का एक और अधिक स्पष्ट रूप से छद्म वैज्ञानिक संस्करण" कहा।

एआई गलतियाँ करता है, भी

धोखाधड़ी का पता लगाना बीमा एआई विधियों से परे संदिग्ध संकेत और पैटर्न खोजने तक फैला हुआ है। उदाहरण के लिए, कई बैंक इसका इस्तेमाल अजीब आरोपों को चिह्नित करने के लिए करते हैं। हालाँकि, तकनीक स्थितियों को गलत समझ सकती है – और यह करती है। यहां तक ​​कि सबसे कुशल प्रोग्रामर भी निर्दोष काम पूरा नहीं कर सकते।

अधिकांश लोगों को कभी-कभी एक वस्तु खरीदने की कोशिश करने की शर्मनाक स्थिति का सामना करना पड़ता है और कैशियर को यह बताते हुए कि लेनदेन विफल हो गया है, भले ही उनके खातों में बहुत पैसा था। स्थिति को ठीक करना आमतौर पर उतना ही सरल है जितना कि कार्डधारक स्थिति की व्याख्या करने और शुल्क को मंजूरी देने के लिए जारीकर्ता से संपर्क करता है।

हालांकि, स्थिति तब और गंभीर हो जाती है जब यह किसी की आवश्यक संपत्ति के लिए दावा करने की बात आती है। क्या होगा यदि एआई गलत हो जाता है, पॉलिसीधारक की वैध आपदा को धोखाधड़ी के रूप में वर्गीकृत करता है? कोई है जो ईमानदारी से अपनी बीमा लागतों का भुगतान करता है, यह उम्मीद करता है कि कवरेज विनाशकारी परिस्थितियों के बाद मन की शांति देगा, आखिरकार खुद को सुरक्षित नहीं पाया जा सकता है। प्रोग्रामिंग के दौरान मानव जनित गलती का परिणाम एआई बीमा कंपनी के ग्राहक के लिए गलत परिणाम हो सकता है।

नींबू पानी ग्राहकों को किसी भी समय रद्द करने और पॉलिसी पर किसी भी शेष भुगतान अवधि के लिए धनवापसी प्राप्त करने देता है। एक बार जब लोगों ने इसके आक्रामक ट्विटर थ्रेड को पढ़ लिया, तो कई लोगों ने सार्वजनिक रूप से प्रदाताओं को स्विच करने का संकेत दिया। यह बताना जल्दबाजी होगी कि कितने लोग इसका अनुसरण कर सकते हैं।

ग्राहकों के खर्च पर लाभ?

लेमोनेड के ट्वीट स्ट्रिंग के एक अन्य हिस्से में उल्लेख किया गया है कि कैसे 2017 की पहली तिमाही में कंपनी को 368% लाभ हानि हुई थी। हालांकि, 2021 की पहली तिमाही तक, यह केवल 71% थी। बीमा कंपनी मुनाफे में मदद के लिए अपने एआई निवेश को बढ़ाने में अकेली नहीं है।

एआई को लागू करने में कंपनी के नेता जो कदम उठाते हैं, वे परिणामों को प्रभावित करते हैं। बीडीओ के एक अध्ययन ने एआई कार्यान्वयन के दौरान आईटी में अधिक निवेश करते हुए औसतन 16% राजस्व वृद्धि दिखाई। हालांकि, आईटी को अधिक संसाधन समर्पित किए बिना औसत वृद्धि सिर्फ 5% थी।

कोई फर्क नहीं पड़ता कि कंपनी के नेता कृत्रिम बुद्धिमत्ता का उपयोग करते समय कितने विशिष्ट कदम उठाते हैं, लेमोनेड के उपद्रव ने जनता की समझ में आने वाली चिंताओं को जन्म दिया। एआई की मुख्य कमियों में से एक यह है कि एल्गोरिदम अक्सर उन कारकों की व्याख्या नहीं कर सकते हैं जिन्होंने उन्हें कुछ निष्कर्ष निकाला है।

यहां तक ​​​​कि तकनीकी पेशेवर जो उन्हें बनाते हैं, वे विभिन्न पहलुओं की पुष्टि नहीं कर सकते हैं, जिससे एआई उपकरण दूसरे पर एक निश्चित निर्णय ले सकता है। यह बीमा एआई उत्पादों और अन्य सभी उद्योगों के लिए एक चिंताजनक वास्तविकता है जो महत्वपूर्ण निर्णयों तक पहुंचने के लिए कृत्रिम बुद्धिमत्ता का उपयोग करते हैं। कुछ एआई विश्लेषक, एचडीएसआर में , ब्लैक-बॉक्स मॉडल के अनावश्यक उपयोग के खिलाफ स्पष्ट रूप से वकालत करते हैं।

लेमोनेड की वेबसाइट में उल्लेख किया गया है कि कैसे एआई सेकंडों में अपने दावों के निर्णयों का एक महत्वपूर्ण प्रतिशत बनाता है। यह अच्छी खबर है अगर परिणाम ग्राहक के पक्ष में काम करता है। हालाँकि, आप कल्पना कर सकते हैं कि पहले से तनावग्रस्त बीमित व्यक्ति पर अतिरिक्त दबाव डाला जा सकता है यदि AI वैध दावे को अस्वीकार करने में एक मिनट से भी कम समय लेता है। नींबू पानी और अन्य एआई-संचालित बीमा कंपनियों को इस बात से कोई आपत्ति नहीं है कि क्या यह प्रणाली उन्हें लाभ में मदद करती है, लेकिन ग्राहक अगर कंपनी की तकनीक अनुचित निर्णय देती हैं।

नींबू पानी Backpedals

लेमोनेड के प्रतिनिधियों ने माफी के साथ इसकी अदला-बदली करते हुए इसके विवादास्पद ट्वीट स्ट्रिंग को तुरंत हटा दिया। संदेश में कहा गया है कि लेमोनेड एआई कभी भी दावों को स्वचालित रूप से अस्वीकार नहीं करता है, और यह किसी व्यक्ति के लिंग या उपस्थिति जैसी विशेषताओं पर उनका मूल्यांकन नहीं करता है।

उपयोगकर्ताओं ने तुरंत बताया कि कंपनी के मूल ट्वीट में अशाब्दिक संकेतों का मूल्यांकन करने के लिए एआई का उपयोग करने का उल्लेख है। स्थिति और भी संदिग्ध हो गई जब एक लेमोनेड ब्लॉग पोस्ट ने दावा किया कि कंपनी भौतिक या व्यक्तिगत विशेषताओं के आधार पर दावों को खारिज करने के लिए एआई का उपयोग नहीं करती है।

पोस्ट में चर्चा की गई कि कैसे लेमोनेड चेहरे की पहचान का उपयोग उन मामलों को चिह्नित करने के लिए करता है जहां एक ही व्यक्ति कई पहचान के तहत दावा करता है। हालाँकि, प्रारंभिक ट्वीट में अशाब्दिक संकेतों का उल्लेख किया गया था, जो किसी व्यक्ति के चेहरे का अध्ययन करने से अलग लगता है कि वे कौन हैं।

"लेमोनेड एआई दावों की प्रक्रिया के दौरान पहचान सत्यापन के लिए चेहरे की पहचान का उपयोग करता है" जैसा कुछ कहना कई लोगों को भयावह निष्कर्ष तक पहुंचने से रोकेगा। ब्लॉग ने यह भी बताया कि कैसे व्यवहार संबंधी शोध से पता चलता है कि व्यक्ति खुद को बोलते हुए कम बार झूठ बोलते हैं – जैसे कि फोन के सेल्फी कैमरे के माध्यम से। यह कहता है कि दृष्टिकोण "लागत को कम रखते हुए तेजी से वैध दावों का भुगतान करने की अनुमति देता है।" हालाँकि, अन्य बीमा कंपनियाँ कृत्रिम बुद्धिमत्ता का अलग तरह से उपयोग करती हैं।

किसी भी एआई बीमा उपकरण की एक संभावित चिंता यह है कि जो लोग इसका उपयोग करते हैं वे तनाव के तहत उन विशेषताओं को दिखा सकते हैं जो असत्य व्यक्तियों की तरह हैं। एक पॉलिसीधारक हकला सकता है, जल्दी बोल सकता है, खुद को दोहरा सकता है, या दावा वीडियो बनाते समय चारों ओर देख सकता है। वे बड़े संकट के कारण उन संकेतों को दिखा सकते थे – जरूरी नहीं कि बेईमानी हो। साक्षात्कार आयोजित करते समय मानव संसाधन क्षेत्र भी एआई का उपयोग करता है। एक संबद्ध जोखिम यह है कि दबाव में कोई भी व्यक्ति अक्सर स्वयं के विपरीत व्यवहार करता है।

एआई उपयोग और डेटा उल्लंघन की संभावना

एआई एल्गोरिदम का प्रदर्शन आम तौर पर बेहतर होता है क्योंकि एक उपकरण अधिक जानकारी तक पहुंच प्राप्त करता है। लेमोनेड के मूल ट्वीट्स ने प्रति ग्राहक 1,600 से अधिक डेटा पॉइंट एकत्र करने की प्रक्रिया का दावा किया। इतनी बड़ी रकम चिंता पैदा करती है।

सबसे पहले, आपको आश्चर्य हो सकता है कि एल्गोरिथ्म क्या जानता है और क्या इसने कोई गलत निष्कर्ष निकाला है। एक और चिंता इस बात को लेकर है कि क्या लेमोनेड और अन्य बीमा एआई कंपनियां डेटा की पर्याप्त सुरक्षा करती हैं।

संबंधित: सर्वश्रेष्ठ पहचान की चोरी से सुरक्षा और निगरानी सेवाएं

साइबर क्रिमिनल्स का लक्ष्य पीड़ितों को निशाना बनाते समय सबसे ज्यादा नुकसान करना है। इसका अर्थ अक्सर उपलब्ध अधिकांश डेटा वाले नेटवर्क और टूल में घुसपैठ करने का प्रयास करना होता है। ऑनलाइन अपराधी यह भी जानते हैं कि कैसे एआई को अच्छी तरह से काम करने के लिए बहुत सारी जानकारी की आवश्यकता होती है। इसी तरह, वे बाद में डार्क वेब पर बेचने के लिए डेटा चोरी करना पसंद करते हैं।

फरवरी 2020 की एक घटना में, Clearview AI नामक एक चेहरे की पहचान करने वाली कंपनी को डेटा उल्लंघन का सामना करना पड़ा। सीपीओ रिपोर्ट करता है कि अनधिकृत पार्टियों ने इसकी पूरी ग्राहक सूची और उन संस्थाओं की गतिविधियों के बारे में जानकारी हासिल की। व्यापार में राज्य के कानून प्रवर्तन और संघीय एजेंसियां ​​थीं, जिनमें एफबीआई और होमलैंड सिक्योरिटी विभाग शामिल थे, इसके ग्राहकों के बीच।

डेटा उल्लंघनों ने ग्राहकों के विश्वास को मिटाकर और पहचान की चोरी के जोखिम में डालकर उन्हें चोट पहुंचाई । चूंकि चोरी या गलत तरीके से डेटा की घटनाएं इतनी बार होती हैं, इसलिए बहुत से लोग एआई बीमा उपकरण को पृष्ठभूमि में उनके बारे में जानकारी इकट्ठा करने से कतरा सकते हैं। यह विशेष रूप से सच है यदि कोई कंपनी अपनी डेटा सुरक्षा और साइबर सुरक्षा नीतियों को निर्दिष्ट करने में विफल रहती है।

सुविधा चिंता के साथ युग्मित

बीमा क्षेत्र में उपयोग किए जाने वाले AI के कई उपयोगी पहलू हैं। बहुत से लोग किसी एजेंट तक पहुंचने के लिए फोन पर कीमती समय बिताने के बजाय चैटबॉट्स पर प्रश्न टाइप करना और तत्काल प्रतिक्रिया प्राप्त करना पसंद करते हैं।

यदि कोई AI बीमा दावा उपकरण सही निष्कर्ष निकालता है और कंपनी के प्रतिनिधि डेटा को सुरक्षित रखते हैं, तो स्पष्ट लाभ मौजूद हैं। हालांकि, यह अवलोकन लोगों को याद दिलाता है कि एआई एक फुलप्रूफ समाधान नहीं है, और कंपनियां मुनाफे को बढ़ावा देने के लिए इसका दुरुपयोग कर सकती हैं। जैसा कि अधिक बीमाकर्ता एआई का पता लगाते हैं, तकनीकी विश्लेषकों और उपभोक्ताओं को अपनी वैध हिचकिचाहट लाकर उन संस्थाओं को ईमानदार और नैतिक रखना चाहिए। ऐसा करने से यह सुनिश्चित करने में मदद मिलेगी कि उपयोगकर्ताओं का डेटा साइबर अपराध से सुरक्षित है।