কস্তুরী প্রকাশ্যে অভিযোগ করলেন, গুগলের এআই আবার উল্টে গেল কেন?

টেকনোলজি ইন্ডাস্ট্রিতে ওয়াং ফেং নামে পরিচিত গুগল, সারা রাত একটানা বৃষ্টির সম্মুখীন হচ্ছে যখন ঘর ফুটো হয়ে যায়।

Gemini 1.5, একটি বৃহৎ মডেল যা কিছুক্ষণ আগে আনুষ্ঠানিকভাবে ঘোষণা করা হয়েছিল, এটি শক্তিশালী কিন্তু কেউ এটিকে পাত্তা দেয় না। এটি OpenAI এর ভিডিও জেনারেশন মডেল Sora দ্বারা চুরি করা হয়েছিল।

সম্প্রতি, এটি আমেরিকান সমাজে জাতিগত বৈষম্যের সংবেদনশীল ইস্যুকে আলোকিত করেছে৷ এটি ভাল উদ্দেশ্য নিয়ে খারাপ কাজ করেছে এবং শ্বেতাঙ্গদের ক্ষুব্ধ করেছে যারা প্রায়শই অবমাননার চেইনের শীর্ষে থাকে৷

আপনি যদি বৈচিত্র্য করেন তবে আপনি গুরুতর, কিন্তু আপনি যদি খুব বেশি বৈচিত্র্য আনেন তবে আপনি সমস্যায় পড়বেন।

যদি মিথুনকে কিছু দিন আগে ঐতিহাসিক ব্যক্তিত্বের ছবি তৈরি করতে ব্যবহার করা হতো, তাহলে ব্যবহারকারীকে একটি সমান্তরাল সময় এবং স্থান বলে মনে হবে যেখানে কোনো পাঠ্যপুস্তক নেই। এটি "জোকস ননসেন্স নয়" এর চেতনাকে লঙ্ঘন করে এবং জ্ঞানকে জটিল করে তোলে।

খ্রিস্টীয় 8 থেকে 11 শতকের ভাইকিংরা ফিল্ম এবং টেলিভিশন নাটকে আর স্বর্ণকেশী, লম্বা এবং বরফের ক্লাসিক চিত্র নয়। যদিও তাদের গায়ের রঙ গাঢ় হয়েছে এবং তাদের পোশাক শীতল হয়েছে, তবুও তাদের দৃঢ় চোখ যোদ্ধাদের শক্তি প্রদর্শন করে। .

1820-এর দশকে জার্মান দম্পতিরা একজন নেটিভ আমেরিকান পুরুষ এবং একজন ভারতীয় মহিলা বা একজন কালো পুরুষ এবং একজন এশিয়ান মহিলার মতোই বৈচিত্র্যময় ছিল।

AI এর অন্ধ স্ক্রিপ্টিং প্লটও যুক্তির উপর ভিত্তি করে, এবং ভবিষ্যত প্রজন্ম তাদের গল্প চালিয়ে যায়। 100 বছরেরও বেশি পরে, 1943 সালে জার্মান সেনাবাহিনীতে, কালো পুরুষ এবং এশিয়ান মহিলাদের আবার দেখা যায়।

সময়ের সাথে সাথে, স্থল এবং মহাসাগর জুড়ে, মার্কিন যুক্তরাষ্ট্রের প্রতিষ্ঠাতা পিতা এবং মধ্যযুগে ইংল্যান্ডের রাজারা সকলেই কৃষ্ণাঙ্গদের হাতে থাকতে পারে।

অন্যান্য পেশাকে সমানভাবে বিবেচনা করা হয়, এআই ক্যাথলিক চার্চকে উপেক্ষা করে যা মহিলাদের যাজকত্ব ধারণ করার অনুমতি দেয় না এবং পোপ একজন ভারতীয় মহিলা হতে পারেন। যদিও মানব ইতিহাসে প্রথম মহিলা মার্কিন সিনেটর ছিলেন 1922 সালে একজন শ্বেতাঙ্গ মহিলা, AI এর 1800s নেটিভ আমেরিকানদের স্বাগত জানায়।

বলা হয়ে থাকে যে ইতিহাস একটি ছোট্ট মেয়ে যাকে যে কেউ সাজাতে পারে, কিন্তু এবার এআই সব মানুষকে বদলে দিয়েছে। শ্বেতাঙ্গ ব্যক্তিরা যারা সর্বদা শ্রেষ্ঠত্বের ধারনা পোষণ করে তারা রাগান্বিত হয় তারা অবশেষে তাদের জাতি, ত্বকের রঙ এবং চেহারার উপর ভিত্তি করে বৈষম্যের স্বাদ অনুভব করে।

অন্বেষণ যখন গভীর থেকে গভীরতর হবে, তখন শুধু ঐতিহাসিক ব্যক্তিত্বই নয়, আধুনিক সমাজও এআই-এর চোখে ভিন্ন দেখাবে।

প্রাক্তন Google প্রকৌশলী @debarghya_das দেখতে পেয়েছেন যে মার্কিন যুক্তরাষ্ট্র, যুক্তরাজ্য, জার্মানি, সুইডেন, ফিনল্যান্ড এবং অস্ট্রেলিয়ার মহিলাদের গাঢ় ত্বক হতে পারে।

তিনি দুঃখের সাথে বিলাপ করেছিলেন: "গুগল মিথুনকে সাদা মানুষের অস্তিত্ব চিনতে পাওয়া খুব কঠিন।"

যা নেটিজেনদেরকে আরও বেশি রাগান্বিত করে তা হল যে উগান্ডার মতো দেশ থেকে একজন মহিলা হতে বলা হলে, মিথুন দ্রুত সাড়া দেয় এবং দক্ষতার সাথে কাজ করে। যখন একজন শ্বেতাঙ্গ ব্যক্তির পালা হয়, তখন সে নেটিজেনদের কাছে প্রত্যাখ্যান বা প্রচার করতে পারে। এই ধরনের অনুরোধ জাতিগত স্টেরিওটাইপকে শক্তিশালী করে।

কম্পিউটার প্রকৌশলী @IMAO_ দারুণ কল্পনাশক্তির সাথে একাধিক পরীক্ষা-নিরীক্ষা চালিয়েছেন। শুধু মানব প্রজাতির মধ্যে সীমাবদ্ধ নয়, তিনি জানতে চেয়েছিলেন মিথুন রাশির সামনে কালো কী এবং সাদা কী সাদা?

ফলাফল আকর্ষণীয়, অ্যালগরিদম শুধুমাত্র সাদা মানুষ টার্গেট বলে মনে হয়.

সাদা ভাল্লুক তৈরি করতে কোন সমস্যা নেই, যার মানে হল "সাদা" শব্দের দ্বারা AI ট্রিগার হবে না। আফ্রিকাতে জুলু মানুষ তৈরিতে কোন সমস্যা নেই। যদিও প্রম্পট শব্দটি "বৈচিত্র্য" এর উপর জোর দেয়, তবুও সবাই একই রকম দেখায়।

ফ্যান্টাসি প্রাণীদের মধ্যে ফাঁকটি দেখা যায়। এলভস এবং ডোয়ার্ফ উভয়ই সাদা, কিন্তু ভ্যাম্পায়ার এবং পরীরা "বৈচিত্র্যময়"। মনে হচ্ছে মিথুন গভীর নয় এবং সময়ের সাথে তাল মিলিয়ে চলতে হবে।

তবে তার খেলা দ্রুত শেষ হয়ে যায়। Google দাঁড়িয়েছে এবং প্রতিক্রিয়া জানিয়েছে, স্বীকার করেছে যে কিছু ঐতিহাসিক চিত্রের সাথে প্রকৃতপক্ষে সমস্যা রয়েছে, এবং জেমিনীর প্রতিকৃতি জেনারেশন ফাংশন স্থগিত করেছে এবং শীঘ্রই সমন্বয় করবে।

গুগল তার অবস্থান ব্যাখ্যা করেছে, জোর দিয়ে যে বিভিন্ন অক্ষর তৈরি করা একটি ভাল জিনিস, কারণ এআই সরঞ্জামগুলি বিশ্ব দ্বারা ব্যবহৃত হয়, তবে এখন দিকটি কিছুটা পক্ষপাতদুষ্ট।

যদিও Google দোষটি নিতে এগিয়ে এসেছিল, তবে "কিছু" কতগুলি ঐতিহাসিক ছবি ছিল এবং কেন একটি "অতিরিক্ত বৈচিত্র্য" সমস্যা ছিল তা স্পষ্টভাবে সাড়া দেয়নি।

নেটিজেনরা যারা এটি কিনেনি তারা তীক্ষ্ণ জিহ্বা ছিল: "মিথুনকে অবশ্যই ডিজনি রাজকুমারী এবং নেটফ্লিক্সের রিমেকে প্রশিক্ষণ দেওয়া হয়েছে" এবং "মিথুন আসলে আপনাকে বলতে চায় আপনি যদি কালো বা এশিয়ান হতেন তবে আপনি কেমন দেখতে হবেন।"

যাইহোক, জাতিগত বৈষম্য নিজেই শোষণ করা একটি সহজ বিষয়, তাই কিছু লোক সন্দেহ করে যে কিছু ছবি দূষিত P-ছবি, অথবা তাৎক্ষণিক শব্দের মাধ্যমে তৈরি করা হয়েছে। যারা সোশ্যাল মিডিয়ায় উচ্চস্বরে সমালোচনা করেন তারা প্রকৃতপক্ষে স্পষ্ট রাজনৈতিক অবস্থানের লোক, যা অনিবার্যভাবে ষড়যন্ত্র তত্ত্বের আঘাত করে।

মাস্ক এটিকে খুব বেশি গুরুত্বের সাথে নেননি এবং খুব বেশি বৈচিত্র্যময় হওয়ার জন্য গুগলের সমালোচনা করেছিলেন। সমস্যাটি কেবল জেমিনি নয়, গুগল সার্চের সাথেও রয়েছে। তিনি তার এআই পণ্য গ্রোকের নতুন সংস্করণের বিজ্ঞাপনও দিয়েছেন, যা দুই সপ্তাহের মধ্যে মুক্তি পাবে : "সমালোচনা উপেক্ষা করুন এবং কঠোরভাবে সত্য অনুসরণ করুন এর চেয়ে বেশি গুরুত্বপূর্ণ ছিল না।"

মাস্ক গতবারও একই কাজ করেছিলেন।জিপিটি-৪ বিবর্তন স্থগিত করার আহ্বান জানানোর পর, তিনি এআই যুদ্ধে যোগ দিতে 10,000 জিপিইউ কিনেছিলেন।

তার মন্তব্যের চেয়ে আকর্ষণীয় আর কি হতে পারে তার মেম যা নেটিজেনরা সুযোগ নিয়েছে।

ইন্টারনেটে পার্থক্য বাস্তবতার চেয়ে বেশি চরম হতে পারে

গুগল কেন "বৈচিত্র্য" নিয়ে বিপথে গেল?

হাগিং ফেসের প্রধান নৈতিক বিজ্ঞানী মার্গারেট মিচেল বিশ্লেষণ করেছেন যে গুগল এআই-তে বিভিন্ন হস্তক্ষেপ করেছে।

প্রথমত, Google পর্দার আড়ালে ব্যবহারকারীর প্রম্পটে "বৈচিত্রপূর্ণ" পদ যোগ করেছে, যেমন "একটি শেফের প্রতিকৃতি" পরিবর্তন করে "একজন আদিবাসী শেফের প্রতিকৃতি"।

দ্বিতীয়ত, Google "বৈচিত্র্যময়" ছবি প্রদর্শনকে অগ্রাধিকার দিতে পারে। ধরে নিই যে জেমিনি প্রতিটি প্রম্পট শব্দের জন্য 10টি ছবি তৈরি করে কিন্তু শুধুমাত্র 4টি প্রদর্শন করে, ব্যবহারকারীরা "বৈচিত্র্যপূর্ণ" ছবিগুলিকে প্রথম স্থানে দেখতে পাওয়ার সম্ভাবনা বেশি।

অত্যধিক হস্তক্ষেপ কেবল ইঙ্গিত দিতে পারে যে মডেলটি আমরা যতটা ভাবি ততটা নমনীয় এবং স্মার্ট নয়।

আলিঙ্গন মুখ গবেষক সাশা লুসিওনি বিশ্বাস করেন যে মডেলটিতে এখনও সময়ের ধারণা নেই, তাই "বৈচিত্র্য" এর ক্রমাঙ্কন সমস্ত চিত্র ব্যবহার করে এবং বিশেষ করে ঐতিহাসিক চিত্রগুলিতে ত্রুটির প্রবণতা রয়েছে।

প্রকৃতপক্ষে, ওপেনএআই, যা তখনও অজানা ছিল, এআই অঙ্কন সরঞ্জাম DALL·E 2-এর জন্যও একই রকম কাজ করেছিল।

জুলাই 2022-এ, OpenAI তার ব্লগে লিখেছিল যে ব্যবহারকারী যদি কোনো জাতি বা লিঙ্গ নির্দিষ্ট না করে কোনো ব্যক্তির ছবি তৈরি করার অনুরোধ করে, যেমন একজন অগ্নিনির্বাপক, DALL·E 2 "সিস্টেম স্তরে" তৈরি করতে একটি নতুন প্রযুক্তি প্রয়োগ করবে। নতুন ছবি।" যে ছবিগুলি বিশ্বের জনসংখ্যার বৈচিত্র্যকে সঠিকভাবে প্রতিফলিত করে।

ওপেনএআই একটি তুলনা চার্টও দিয়েছে।একই প্রম্পট শব্দের জন্য "A photo of a CEO" (CEO-এর ছবি), নতুন প্রযুক্তি ব্যবহারের পর, বৈচিত্র্য উল্লেখযোগ্যভাবে বৃদ্ধি পেয়েছে।

মূল ফলাফলগুলি মূলত সাদা আমেরিকান পুরুষদের ছিল৷ উন্নতির পরে, এশিয়ান পুরুষ এবং কালো মহিলারাও সিইও হওয়ার যোগ্য৷ কৌশলগত অভিব্যক্তি এবং ভঙ্গি দেখে মনে হচ্ছে সেগুলি কপি এবং পেস্ট করা হয়েছে৷

প্রকৃতপক্ষে, এটি যে ধরনের সমাধানই হোক না কেন, এটি কেবল একটি দেরী সমাধান। বড় সমস্যা হল যে ডেটা নিজেই এখনও পক্ষপাতদুষ্ট।

AI কোম্পানিগুলির প্রশিক্ষণের জন্য LAION-এর মতো ডেটা সেটগুলি মূলত মার্কিন যুক্তরাষ্ট্র, ইউরোপ এবং অন্যান্য দেশগুলি থেকে ইন্টারনেট ডেটা ক্যাপচার করে এবং ভারত এবং চীনের মতো বিশাল জনসংখ্যার দেশগুলিতে কম মনোযোগ দেয়৷

অতএব, একটি "আকর্ষণীয় ব্যক্তি" স্বর্ণকেশী চুল, নীল চোখ, ফর্সা ত্বক এবং একটি ভাল চিত্র সহ একটি ইউরোপীয় হওয়ার সম্ভাবনা বেশি। "সুখী পরিবার," ওর্তে একটি সাদা দম্পতির দিকে ইঙ্গিত করে বলেছিল, তাদের বাচ্চাদের ধরে রাখা এবং একটি ম্যানিকিউরড লনে হাসছে।

এছাড়াও, অনুসন্ধানে চিত্রগুলিকে উচ্চতর স্থান দেওয়ার জন্য, অনেক ডেটা সেটে প্রচুর পরিমাণে "বিষাক্ত" ট্যাগ থাকতে পারে, যা পর্নোগ্রাফি এবং সহিংসতায় পূর্ণ।

বিভিন্ন কারণে, যখন মানুষের ধারনা অগ্রসর হয়েছে, তখন ইন্টারনেট চিত্রে মানুষের মধ্যে পার্থক্য বাস্তবতার চেয়ে বেশি চরম হতে পারে। আফ্রিকানরা আদিম, ইউরোপীয়রা ধর্মনিরপেক্ষ, নির্বাহীরা পুরুষ এবং বন্দীরা কালো…

ডেটা সেটটিকে "ডিটক্সিফাই" করার প্রচেষ্টা অবশ্যই চলমান রয়েছে, যেমন ডেটা সেট থেকে "খারাপ" বিষয়বস্তু ফিল্টার করা, তবে ফিল্টার করার অর্থ পর্নোগ্রাফিক সামগ্রী মুছে ফেলার জন্য পুরো শরীরকে একত্রিত করা, যা কিছু ক্ষেত্রে আরও সামগ্রীর দিকে নিয়ে যেতে পারে। বা কম, যা কিছু ধরণের পক্ষপাত তৈরি করে।

সংক্ষেপে, পরিপূর্ণতা অর্জন করা অসম্ভব, এবং বাস্তব সমাজে কোন পক্ষপাত নেই। আমরা কেবলমাত্র প্রান্তিক গোষ্ঠীগুলিকে বাদ দেওয়া এবং সুবিধাবঞ্চিত গোষ্ঠীগুলিকে স্টেরিওটাইপ করা থেকে বিরত রাখতে আমাদের যথাসাধ্য চেষ্টা করতে পারি।

পালানো লজ্জাজনক কিন্তু দরকারী

2015 সালে, একটি Google মেশিন লার্নিং প্রকল্প একই ধরনের বিতর্কে জড়িত ছিল।

সেই সময়ে, একজন সফ্টওয়্যার প্রকৌশলী আফ্রিকান আমেরিকান বা গাঢ় ত্বকের লোকদের গরিলা হিসাবে লেবেল করার জন্য Google ফটোর সমালোচনা করেছিলেন। এই কেলেঙ্কারীটি "অ্যালগরিদমিক বর্ণবাদ" এর একটি আদর্শ উদাহরণ হয়ে উঠেছে এবং এর প্রভাব আজও অব্যাহত রয়েছে।

দুইজন প্রাক্তন Google কর্মচারী ব্যাখ্যা করেছেন যে এত বড় ত্রুটি ঘটেছে কারণ প্রশিক্ষণের ডেটাতে কালো লোকদের পর্যাপ্ত ফটো ছিল না এবং প্রাসঙ্গিক বৈশিষ্ট্যগুলি জনসাধারণের কাছে প্রকাশ করার আগে অভ্যন্তরীণ পরীক্ষা চালানোর জন্য পর্যাপ্ত কর্মচারী ছিল না।

আজ, কম্পিউটারের দৃষ্টিভঙ্গি ভিন্ন, কিন্তু প্রযুক্তি জায়ান্টরা এখনও একই ভুলের পুনরাবৃত্তি নিয়ে চিন্তিত৷ গুগল, অ্যাপল এবং অন্যান্য বড় কোম্পানিগুলির ক্যামেরা অ্যাপ্লিকেশনগুলি এখনও বেশিরভাগ প্রাইমেটদের স্বীকৃতির জন্য সংবেদনশীল নয়, বা ইচ্ছাকৃতভাবে এটি এড়ায়৷

মনে হয় যে ভুলটি আবার ঘটতে না পারে তা প্রতিরোধ করার সর্বোত্তম উপায় হল এটি ঠিক করার পরিবর্তে একটি অন্ধকার ঘরে তালাবদ্ধ করা। পাঠটি আসলেই পুনরাবৃত্তি হয়েছে৷ 2021 সালে, Facebook AI কৃষ্ণাঙ্গদের "প্রাইমেট" হিসাবে লেবেল করার জন্য ক্ষমা চেয়েছিল৷

এগুলি এমন পরিস্থিতি যা রঙের লোকেরা বা যারা ইন্টারনেটে সুবিধাবঞ্চিত তারা পরিচিত।

গত অক্টোবরে, অক্সফোর্ড বিশ্ববিদ্যালয়ের বেশ কয়েকজন গবেষক মিডজার্নিকে "শ্বেতাঙ্গ ত্রাণকর্তাদের" চিরাচরিত ধারণাকে উল্টাতে "সাদা শিশুদের চিকিত্সা করছেন কালো আফ্রিকান ডাক্তারদের" চিত্র তৈরি করতে বলেছিলেন।

গবেষকের প্রয়োজনীয়তা খুব স্পষ্ট। যাইহোক, তৈরি করা 350 টিরও বেশি চিত্রের মধ্যে, 22 জনের মধ্যে ডাক্তার সাদা। কালো ডাক্তারদের পাশে সবসময় আফ্রিকান বন্য প্রাণী যেমন জিরাফ এবং হাতি থাকে। "আপনি কোন অনুভূতি দেখতে পাচ্ছেন না আফ্রিকান আধুনিকতা।"

একদিকে, সাধারণ বৈষম্য রয়েছে, এবং অন্যদিকে, সমতার একটি মিথ্যা অনুভূতি তৈরি করার জন্য Google তথ্যগুলিকে বিকৃত করে৷ বর্তমান দৃষ্টিকোণ থেকে, কোনও সহজ উত্তর নেই এবং এমন কোনও মডেল নেই যা পরিচালনা করতে পারে৷ পরিস্থিতি। কীভাবে একটি ভারসাম্য অর্জন করা যায় যা সবাইকে সন্তুষ্ট করে সম্ভবত একটি টাইটরোপ হাঁটার চেয়ে আরও কঠিন।

একটি উদাহরণ হিসাবে তৈরি করা প্রতিকৃতি নিন৷ যদি AI ইতিহাসের একটি নির্দিষ্ট সময়কাল তৈরি করতে ব্যবহার করা হয় তবে এটি বাস্তব পরিস্থিতিকে আরও ভালভাবে প্রতিফলিত করতে পারে, যদিও এটি "বৈচিত্র্য" হিসাবে দেখায় না৷

কিন্তু যদি প্রম্পট শব্দ "একজন আমেরিকান মহিলা" ইনপুট হয়, তবে এটি আরও "বৈচিত্রপূর্ণ" ফলাফল আউটপুট করবে। কিন্তু অসুবিধা হল, কীভাবে এআই সীমিত সংখ্যক ছবিতে বাস্তবতা প্রতিফলিত করতে পারে, বা অন্তত বাস্তবতাকে বিকৃত করতে পারে না?

এমনকি তারা সাদা বা কালো হলেও তাদের বয়স, শরীরের আকৃতি, চুল এবং অন্যান্য বৈশিষ্ট্য আলাদা। প্রত্যেকেই অনন্য অভিজ্ঞতা এবং দৃষ্টিভঙ্গি সহ একজন ব্যক্তি, তবে তারা একটি সাধারণ সমাজে বাস করে।

যখন একজন নেটিজেন ফিনিশ নারীদের তৈরি করতে জেমিনি ব্যবহার করেছিলেন, তখন চারটি ছবির মধ্যে শুধুমাত্র একটি ছিল একজন কালো মহিলা, তাই তিনি রসিকতা করেছিলেন: "75%, স্কোর সি।"

কিছু লোক গুগলকে জিজ্ঞাসা করেছিল যে মডেলটি উন্নত করার পরে, এটি "5% এর পরিবর্তে 25% সময় সাদা মানুষ তৈরি করবে।"

অনেক সমস্যা প্রযুক্তির দ্বারা সমাধান করা যায় না, কখনও কখনও তারা ধারণা সম্পর্কেও হয়। এটি আসলে সেই কারণের অংশ যে কেন AI জায়ান্ট যেমন Yann LeCun ওপেন সোর্স সমর্থন করে, যা ব্যবহারকারী এবং সংস্থার দ্বারা নিয়ন্ত্রিত হয় এবং তারা তাদের নিজস্ব ইচ্ছা অনুযায়ী সুরক্ষা ব্যবস্থা সেট করতে বা সেট করতে পারে না।

এই গুগল প্রহসন চলাকালীন, কিছু লোক শান্ত ছিল এবং বলেছিল যে তাদের প্রথমে প্রম্পট শব্দগুলি কীভাবে লিখতে হয় তা অনুশীলন করা উচিত। সাধারণভাবে সাদা মানুষ এবং কালো মানুষদের সম্পর্কে কথা বলার পরিবর্তে তাদের "স্ক্যান্ডিনেভিয়ান মহিলা, প্রতিকৃতি শুটিং, স্টুডিও আলো" লেখা উচিত। প্রয়োজনীয়তাগুলি আরও সুনির্দিষ্ট, ফলাফলগুলি আরও সুনির্দিষ্ট, এবং প্রয়োজনীয়তাগুলি বিস্তৃত, ফলাফলগুলি আরও সাধারণ হতে পারে।

গত বছরের জুলাই মাসেও একই রকম একটি ঘটনা ঘটেছিল।এমআইটির একজন এশিয়ান ছাত্র তার অবতারটিকে আরও পেশাদার দেখানোর জন্য এআই টুল প্লেগ্রাউন্ড এআই ব্যবহার করতে চেয়েছিলেন। ফলস্বরূপ, তিনি একজন সাদা মানুষে পরিণত হয়েছিলেন, যার ত্বক হালকা এবং নীল চোখ ছিল। তিনি X-এ পোস্টটি পরে পোস্ট করেছেন, এটি অনেক আলোচনার জন্ম দিয়েছে।

প্লেগ্রাউন্ড এআই-এর প্রতিষ্ঠাতা প্রতিক্রিয়া জানিয়েছেন যে মডেলটিকে এই ধরনের নির্দেশাবলী দ্বারা কার্যকরভাবে প্রম্পট করা যায় না, তাই এটি আরও সাধারণ ফলাফল দেবে।

প্রম্পট শব্দটি "এটিকে একটি পেশাদার লিঙ্কডইন ফটো তৈরি করুন" থেকে "স্টুডিও ব্যাকগ্রাউন্ড, শার্প লাইটিং" এ পরিবর্তন করলে আরও ভাল ফলাফল পাওয়া যেতে পারে, কিন্তু এটি দেখায় যে অনেক AI টুল ব্যবহারকারীদের শেখায় না কিভাবে প্রম্পট শব্দ লিখতে হয় এবং ডেটা সেট আবার কেন্দ্রীভূত হয়। শেতাঙ্গ মানুষেরা.

যেকোন প্রযুক্তিতে ভুল করার সম্ভাবনা থাকে এবং উন্নতির জন্য জায়গা থাকে, তবে এটির অগত্যা সমাধান নেই। যখন AI যথেষ্ট স্মার্ট না হয়, তখন অগ্রগতি করার প্রথম ব্যক্তি মানুষ নিজেই।

এটি শরতের তুষারপাতের মতো তীক্ষ্ণ এবং মন্দ বিপর্যয় থেকে রক্ষা করতে পারে। কাজের ইমেল: zhangchengchen@ifanr.com

# Aifaner এর অফিসিয়াল WeChat পাবলিক অ্যাকাউন্ট অনুসরণ করতে স্বাগতম: Aifaner (WeChat ID: ifanr)। যত তাড়াতাড়ি সম্ভব আপনাকে আরও উত্তেজনাপূর্ণ সামগ্রী সরবরাহ করা হবে।

Ai Faner | আসল লিঙ্ক · মন্তব্য দেখুন · Sina Weibo