অ্যাপল ফেসটাইমে নগ্নতা সনাক্তকরণ যোগ করে, গোপনীয়তা এবং নৈতিকতার মধ্যে একটি পছন্দ


আপনি অবশ্যই অ্যাপল এবং ইউ ইউনপেং-এর বিজ্ঞাপন দেখেছেন, যার মূল প্রস্তাবটি হল:

গোপনীয়তা এবং নিরাপত্তা নিশ্চিত করার জন্য প্রচেষ্টা করা, এটি খুব আইফোন।

অ্যাপল তাই বলেছে এবং সত্যিই তাই করেছে। যাইহোক, যখন "গোপনীয়তা" এবং "নৈতিকতা" স্কেলের উভয় প্রান্তে স্থাপন করা হয়, এমনকি অ্যাপলও একটি সংশয়ের মুখোমুখি হবে।

▲ Apple এবং Yue Yunpeng-এর সহযোগিতামূলক বিজ্ঞাপনের পোস্টার। ছবির উৎস: অ্যাপল

9to5mac-এর মতে , Apple iOS 26-এর ডেভেলপার প্রিভিউতে FaceTime-এর জন্য একটি নগ্নতা সনাক্তকরণ বৈশিষ্ট্য চালু করেছে, যা ভিডিও কলে অনুপযুক্ত নগ্নতা সনাক্ত করার উদ্দেশ্যে।

জানা গেছে যে অ্যাপল রিয়েল টাইমে কলগুলিতে নগ্ন সামগ্রী সনাক্ত করতে ডিভাইসের পাশে AI অ্যালগরিদম ব্যবহার করবে। যখন সিস্টেম সম্ভাব্য নগ্ন দৃশ্য শনাক্ত করে, তখন এটি অবিলম্বে ভিডিও কল থামিয়ে দেবে এবং একটি সতর্কতা প্রদর্শন করবে৷

অ্যাপল বলেছে যে ফিচারটি মূলত কিশোর-কিশোরীদের একটি নিরাপদ ডিজিটাল সামাজিক পরিবেশ প্রদানের জন্য শিশুদের অ্যাকাউন্টে ব্যবহার করার জন্য ডিজাইন করা হয়েছিল।

▲ ফেসটাইম হিমায়িত ইন্টারফেস। ছবি: 9to5Mac থেকে

এই বৈশিষ্ট্যটি CSAM (শিশু যৌন নির্যাতনের উপাদান) স্ক্যানিং প্রোগ্রাম থেকে উদ্ভূত হয়েছে যা অ্যাপল কয়েক বছর আগে চালু করেছিল। কিন্তু কিছু কারণে, এই বৈশিষ্ট্যটি iOS 26 বিকাশকারী সংস্করণে সমস্ত বয়সের ব্যবহারকারীদের কভার করার জন্য প্রসারিত করা হয়েছিল। অন্য কথায়, প্রাপ্তবয়স্ক ব্যবহারকারীরাও "সুরক্ষিত"।

যদিও অ্যাপল জোর দিয়েছিল যে সমস্ত স্বীকৃতির কাজ ডিভাইসে স্থানীয়ভাবে প্রক্রিয়া করা হয় এবং ডেটা ক্লাউডে আপলোড করা হবে না, বয়সের কভারেজের সম্প্রসারণ সামাজিক মিডিয়াতে ব্যাপক বিতর্কের সৃষ্টি করেছে। krazygreekguy নামের একজন ব্যবহারকারী 9to5mac এ মন্তব্য করেছেন:

আমি এর পিছনে চিন্তাভাবনা বুঝতে পারি, কিন্তু তাদের প্রাপ্তবয়স্কদের উপর এই ধরনের নিয়ন্ত্রণ অনুশীলন করার কোন অধিকার নেই। মানুষের গোপনীয়তা হরণ করার অধিকার কোনো সংগঠনের নেই।

▲ অ্যাপল প্রচারমূলক ছবি। ছবির উৎস: অ্যাপল

অন্য কথায়, লোকেরা উদ্বিগ্ন যে বয়সের কভারেজের এই সম্প্রসারণটি অ্যাপলের অনন্য ক্ষমতার সম্প্রসারণ, ব্যক্তিগত জীবনে অত্যধিক হস্তক্ষেপের বিন্দু পর্যন্ত, এবং এমনকি এমন পরিস্থিতিতেও প্রসারিত হতে পারে যেগুলির সাথে পর্নোগ্রাফিক উদ্দেশ্যগুলির কোনও সম্পর্ক নেই৷
কল্পনা করুন যে আপনি বাড়িতে আপনার সন্তানের সাথে একটি ভিডিও কল করছেন। শুধুমাত্র আপনি শার্টলেস বা আপনার জামাকাপড় সামঞ্জস্য করার কারণে, সিস্টেম ভুলভাবে আপনাকে অনুপযুক্তভাবে উন্মুক্ত হিসাবে চিহ্নিত করতে পারে, যার ফলে ভিডিওটি ব্লক করা হয়েছে:

আমার আইফোন কি মনে করে যে আমি একজন বিকৃত ব্যক্তি?

▲ ফেসটাইম। ছবি থেকে: অ্যাপল

আসলে, ফেসটাইম প্রায় 14 বছর ধরে রয়েছে। অ্যাপল ইকোসিস্টেমের একটি "প্রবীণ" বৈশিষ্ট্য হিসাবে, এটি প্রথমবার বিতর্ক সৃষ্টি করেনি। 2019 সালে, ফেসটাইমে একটি প্রযুক্তিগত ত্রুটি ছিল যা ব্যবহারকারীদের সংযোগ ছাড়াই অন্য পক্ষের কল শুনতে দেয়। যদিও অ্যাপল দ্রুত ত্রুটিটি স্থির করেছে, এটি অনেক লোককে গোপনীয়তা প্রচারের অলঙ্কারশাস্ত্রের অধীনে অ্যাপলের প্রকৃত সুরক্ষা ক্ষমতা নিয়ে সন্দেহ তৈরি করেছে।

▲ অ্যাপল প্রচারমূলক ছবি। ছবির উৎস: অ্যাপল

কোম্পানির মূল মান হিসাবে, অ্যাপল সবসময় ব্যবহারকারীর গোপনীয়তা রক্ষা করার জন্য অত্যন্ত গুরুত্ব দিয়েছে।

যারা দীর্ঘদিন ধরে অ্যাপলকে অনুসরণ করছেন তারা 2015 সালের ঘটনাটি মনে রাখতে পারেন যখন অ্যাপল এফবিআই-এর মুখোমুখি হয়েছিল। ক্যালিফোর্নিয়ায় সান বার্নার্ডিনো শুটিংয়ের পর, এফবিআই সন্ত্রাসী কার্যকলাপ সম্পর্কে তথ্য পাওয়ার জন্য খুনি দ্বারা ব্যবহৃত আইফোনটি আনলক করার অনুরোধ করেছিল, কিন্তু অ্যাপল তা প্রত্যাখ্যান করেছিল। সে সময় অ্যাপলের সিইও টিম কুক বলেছিলেন: একবার ব্যাকডোর খুলে গেলে তা বন্ধ করা যাবে না, যা সব ব্যবহারকারীর নিরাপত্তা ও গোপনীয়তাকে বিপন্ন করবে।

▲ ফেসটাইম ইন্টারফেস। ছবি থেকে: অ্যাপল

তবে তা সত্ত্বেও, অ্যাপল গোপনীয়তার সমস্যার কারণে কিছু বিতর্কও সৃষ্টি করেছে। উদাহরণ স্বরূপ, উপরে উল্লিখিত CSAM স্ক্যানিং প্ল্যানটি চালু হওয়ার সময়ও সমালোচিত হয়েছিল।

2021 সালে iOS 15 দিয়ে শুরু করে, অ্যাপল স্থানীয় ডিভাইসগুলিতে নিউরালহ্যাশ প্রযুক্তি ব্যবহার করে ব্যবহারকারীদের দ্বারা iCloud-এ আপলোড করা ফটোগুলির হ্যাশ মানগুলিকে প্রামাণিক মার্কিন সংস্থাগুলির দ্বারা পরিচালিত CSAM ডাটাবেসের সাথে তুলনা করে। প্রিসেট থ্রেশহোল্ড অতিক্রম করা হলে, Apple প্রাসঙ্গিক ডেটা ডিক্রিপ্ট করবে এবং ম্যানুয়াল পর্যালোচনা পরিচালনা করবে। নিশ্চিতকরণের পরে, অ্যাকাউন্টটি নিষ্ক্রিয় করা হবে এবং নিখোঁজ এবং শোষিত শিশুদের জন্য জাতীয় কেন্দ্রে (NCMEC) রিপোর্ট করা হবে।

অ্যাপল দাবি করে যে এই বৈশিষ্ট্যটির উদ্দেশ্য হল শিশু যৌন অপরাধীদের সনাক্ত করা এবং ধরা, প্রযুক্তিগতভাবে সর্বাধিক পরিমাণে ব্যবহারকারীর গোপনীয়তা রক্ষা করা এবং ভুল ধারণা এবং অপব্যবহার এড়ানো।

যাইহোক, গোপনীয়তা সুরক্ষা সংস্থা এবং নিরাপত্তা বিশেষজ্ঞরা প্রশ্ন করেছেন যে অ্যাপল তার ধারাবাহিক গোপনীয়তা সুরক্ষা প্রতিশ্রুতি থেকে বিচ্যুত হবে কিনা। সর্বোপরি, CSAM স্ক্যানিং মূলত ব্যবহারকারীদের দ্বারা আপলোড করা ব্যক্তিগত তথ্য সনাক্ত করে। চাপের মুখে, অ্যাপল ঘোষণা করেছে যে এটি এই বৈশিষ্ট্যটির প্রকাশ স্থগিত করবে এবং এর পরিবর্তে অন্যান্য শিশু সুরক্ষা ব্যবস্থা চালু করবে, যেমন তথ্য ও যোগাযোগ সুরক্ষা এবং সিরি অনুসন্ধান হস্তক্ষেপ ফাংশন।

অ্যাপলের জন্য, "নৈতিকতা" এবং "গোপনীয়তা" একই সময়ে অর্জন করা যাবে না।

শুরুতে উল্লিখিত ফেসটাইম নগ্নতা সনাক্তকরণে ফিরে যান: অ্যাপলের আসল উদ্দেশ্য থেকে, এটি কিশোর-কিশোরীদের আরও ভালভাবে সুরক্ষার জন্য চালু করা একটি সুরক্ষা বৈশিষ্ট্য। এটি কিশোর-কিশোরীদের ভিডিও কলে অনুপযুক্ত নগ্নতার সংস্পর্শে আসা থেকে বিরত রাখতে সাহায্য করে৷ সারা বিশ্বে মোবাইল ভিডিও কলে যৌন হয়রানি এবং প্রতারণার অনুরূপ অসংখ্য ঘটনা রয়েছে। এক বিলিয়নেরও বেশি ব্যবহারকারীর সাথে, অ্যাপলের অবশ্যই এই ধরনের সামাজিক দায়িত্ব বহন করা উচিত।

কিন্তু অন্যদিকে, এই "স্বয়ংক্রিয় হস্তক্ষেপের" সীমানা কোথায় তা একটি গুরুত্বপূর্ণ প্রশ্ন থেকে যায়।

যখন পাবলিক নৈতিকতা এবং ব্যক্তিগত গোপনীয়তা স্কেলের উভয় প্রান্তে স্থাপন করা হয়, তখন কীভাবে ভাল-মন্দকে ওজন করা যায় এবং "সঠিক" সিদ্ধান্ত নেওয়া যায় তা ভবিষ্যতে অ্যাপলকে দীর্ঘ সময়ের জন্য সমস্যায় ফেলতে পারে।

লেখক: Zhou Qiantong, Xiao Qinpeng

#iFanr: iFanr (WeChat ID: ifanr) এর অফিসিয়াল WeChat পাবলিক অ্যাকাউন্ট অনুসরণ করতে স্বাগতম, যেখানে যত তাড়াতাড়ি সম্ভব আরও উত্তেজনাপূর্ণ বিষয়বস্তু আপনার কাছে উপস্থাপন করা হবে।

iFanr | মূল লিঙ্ক · মন্তব্য দেখুন · সিনা ওয়েইবো