ভাষা নির্বাচন করুন

ইনটেন্ট কনট্রাস্টিভ লার্নিং ফর সিকোয়েন্সিয়াল রিকমেন্ডেশন (আইসিএলরেক)

লুকানো ব্যবহারকারী অভিপ্রায়কে কনট্রাস্টিভ স্ব-তত্ত্বাবধানে শেখার মাধ্যমে কাজে লাগিয়ে সিকোয়েন্সিয়াল রিকমেন্ডেশনের কার্যকারিতা ও রোবাস্টনেস উন্নত করার একটি অভিনব শেখার প্যারাডাইম।
ledfishingfloat.com | PDF Size: 0.6 MB
রেটিং: 4.5/5
আপনার রেটিং
আপনি ইতিমধ্যে এই ডকুমেন্ট রেট করেছেন
PDF ডকুমেন্ট কভার - ইনটেন্ট কনট্রাস্টিভ লার্নিং ফর সিকোয়েন্সিয়াল রিকমেন্ডেশন (আইসিএলরেক)

1. ভূমিকা

সিকোয়েন্সিয়াল রিকমেন্ডেশন (এসআর) ব্যবহারকারীর ঐতিহাসিক আচরণ ক্রমের ভিত্তিতে তার পরবর্তী মিথস্ক্রিয়া ভবিষ্যদ্বাণী করার লক্ষ্য রাখে। যদিও গভীর শিক্ষণ মডেলগুলি সর্বোচ্চ স্তরের কার্যকারিতা অর্জন করেছে, তবুও তারা প্রায়শই ব্যবহারকারী আচরণকে চালিত করা অন্তর্নিহিত লুকানো অভিপ্রায়গুলিকে (যেমন, "মাছ ধরার সরঞ্জাম কেনাকাটা", "ছুটির প্রস্তুতি") উপেক্ষা করে। এই অভিপ্রায়গুলি পর্যবেক্ষণ করা যায় না কিন্তু ব্যবহারকারীর উদ্দেশ্য বোঝা এবং রিকমেন্ডেশনের নির্ভুলতা ও রোবাস্টনেস উন্নত করার জন্য অত্যন্ত গুরুত্বপূর্ণ, বিশেষত স্পার্স বা নয়েজি ডেটা পরিস্থিতিতে।

এই গবেষণাপত্রটি ইনটেন্ট কনট্রাস্টিভ লার্নিং (আইসিএল) উপস্থাপন করে, যা একটি অভিনব প্যারাডাইম যা এসআর মডেলগুলিতে একটি লুকানো ইনটেন্ট ভেরিয়েবল যুক্ত করে। মূল ধারণাটি হল লেবেলবিহীন ক্রমগুলি থেকে ব্যবহারকারী অভিপ্রায়ের বন্টন শেখা এবং কনট্রাস্টিভ স্ব-তত্ত্বাবধানে শেখার মাধ্যমে এসআর মডেলটি অপ্টিমাইজ করা, যাতে ক্রমের দৃশ্যগুলিকে তাদের সংশ্লিষ্ট অভিপ্রায়ের সাথে সারিবদ্ধ করা যায়।

2. পটভূমি ও সম্পর্কিত কাজ

2.1 সিকোয়েন্সিয়াল রিকমেন্ডেশন

জিআরইউ৪রেক, এসএএসরেক এবং বিইআরটি৪রেকের মতো মডেলগুলি সময়গত গতিবিদ্যা ধরে রাখে কিন্তু সাধারণত আচরণকে আইটেমের সরাসরি ক্রম হিসাবে মডেল করে, উচ্চতর-ক্রমের ইনটেন্ট সংকেত হারিয়ে ফেলে।

2.2 ইনটেন্ট মডেলিং

পূর্ববর্তী ইনটেন্ট-সচেতন মডেলগুলি প্রায়শই স্পষ্ট পার্শ্ব তথ্যের (যেমন, প্রশ্ন, বিভাগ) উপর নির্ভর করে। আইসিএল অন্তর্নিহিত আচরণ ক্রমগুলি থেকে অভিপ্রায় সরাসরি শিখে উদ্ভাবন করে।

2.3 কনট্রাস্টিভ লার্নিং

কম্পিউটার ভিশন (যেমন, সিমসিএলআর, এমওসিও) এবং এনএলপিতে সাফল্যের দ্বারা অনুপ্রাণিত হয়ে, কনট্রাস্টিভ লার্নিং একই ডেটার ভিন্নভাবে অগমেন্টেড দৃশ্যগুলির মধ্যে সম্মতি সর্বাধিক করে। আইসিএল আচরণগত ক্রমগুলিকে তাদের লুকানো অভিপ্রায়ের সাথে সারিবদ্ধ করতে এটি প্রয়োগ করে।

3. পদ্ধতিবিদ্যা: ইনটেন্ট কনট্রাস্টিভ লার্নিং (আইসিএল)

3.1 সমস্যা প্রণয়ন

একটি ব্যবহারকারী $u$ কে একটি মিথস্ক্রিয়া ক্রম $S^u = [v_1^u, v_2^u, ..., v_t^u]$ দেওয়া হলে, লক্ষ্য হল পরবর্তী আইটেম $v_{t+1}^u$ ভবিষ্যদ্বাণী করা। আইসিএল ক্রমটি ব্যাখ্যা করার জন্য একটি লুকানো ইনটেন্ট ভেরিয়েবল $z$ প্রবর্তন করে।

3.2 লুকানো ইনটেন্ট ভেরিয়েবল

ইনটেন্ট $z$ কে একটি শ্রেণীবদ্ধ ভেরিয়েবল হিসাবে মডেল করা হয় যা ক্রমের অন্তর্নিহিত উদ্দেশ্যকে প্রতিনিধিত্ব করে। মডেলটি একটি বন্টন $p(z | S^u)$ শেখে।

3.3 ক্লাস্টারিংয়ের মাধ্যমে ইনটেন্ট ডিস্ট্রিবিউশন লার্নিং

ব্যবহারকারী ক্রম উপস্থাপনাগুলিকে ক্লাস্টার করা হয় (যেমন, কে-মিনস ব্যবহার করে) $K$ সংখ্যক লুকানো ইনটেন্ট প্রোটোটাইপ আবিষ্কার করার জন্য। প্রতিটি ক্লাস্টার সেন্ট্রয়েড একটি ইনটেন্টকে প্রতিনিধিত্ব করে।

3.4 কনট্রাস্টিভ স্ব-তত্ত্বাবধানে শেখা

মূল শিক্ষণ সংকেতটি একটি কনট্রাস্টিভ লস থেকে আসে। একটি ক্রম $S$ এর জন্য, দুটি অগমেন্টেড ভিউ ($S_i$, $S_j$) তৈরি করা হয়। মডেলটিকে প্রশিক্ষণ দেওয়া হয় যাতে একটি ক্রমের উপস্থাপনা এবং তার নির্ধারিত ইনটেন্ট ক্লাস্টারের উপস্থাপনা একে অপরের কাছাকাছি টানা হয়, যখন এটি অন্যান্য অভিপ্রায় থেকে দূরে ঠেলা হয়। একটি পজিটিভ জোড়ার (ক্রম, তার ইনটেন্ট) জন্য কনট্রাস্টিভ লস ইনফোএনসিই লসের উপর ভিত্তি করে:

$\mathcal{L}_{cont} = -\log \frac{\exp(\text{sim}(f(S), g(z)) / \tau)}{\sum_{z' \in \mathcal{Z}} \exp(\text{sim}(f(S), g(z')) / \tau)}$

যেখানে $f$ হল ক্রম এনকোডার, $g$ হল ইনটেন্ট এমবেডিং ফাংশন, $\text{sim}$ হল একটি সাদৃশ্য ফাংশন (যেমন, কোসাইন), এবং $\tau$ হল একটি তাপমাত্রা প্যারামিটার।

3.5 জেনারেলাইজড ইএম ফ্রেমওয়ার্কের মাধ্যমে প্রশিক্ষণ

প্রশিক্ষণ একটি জেনারেলাইজড এক্সপেক্টেশন-ম্যাক্সিমাইজেশন (ইএম) ফ্রেমওয়ার্কের মধ্যে দুটি ধাপের মধ্যে পর্যায়ক্রমে চলে:

  1. ই-ধাপ (ইনটেন্ট ইনফারেন্স): বর্তমান মডেল প্যারামিটার দেওয়া প্রতিটি ক্রমের জন্য লুকানো ইনটেন্ট $z$ এর পোস্টেরিয়র ডিস্ট্রিবিউশন অনুমান করা।
  2. এম-ধাপ (মডেল আপডেট): প্রত্যাশিত লগ-সম্ভাবনা সর্বাধিক করে এসআর মডেল প্যারামিটার আপডেট করা, যাতে স্ট্যান্ডার্ড পরবর্তী-আইটেম ভবিষ্যদ্বাণী লস এবং কনট্রাস্টিভ লস $\mathcal{L}_{cont}$ অন্তর্ভুক্ত থাকে।

এই পুনরাবৃত্তিমূলক প্রক্রিয়াটি ইনটেন্ট বোঝাপড়া এবং রিকমেন্ডেশন গুণমান উভয়কেই পরিশোধন করে।

4. পরীক্ষা ও ফলাফল

4.1 ডেটাসেট ও বেসলাইন

পরীক্ষাগুলি চারটি বাস্তব-বিশ্বের ডেটাসেটে পরিচালিত হয়েছিল: বিউটি, স্পোর্টস, টয়স এবং ইয়েল্প। বেসলাইনগুলিতে সর্বোচ্চ স্তরের এসআর মডেল (এসএএসরেক, বিইআরটি৪রেক) এবং স্ব-তত্ত্বাবধানে পদ্ধতি (সিএল৪এসরেক) অন্তর্ভুক্ত ছিল।

কার্যকারিতা সারসংক্ষেপ (এনডিসিজি@১০)

  • এসএএসরেক: ০.০৪৫২ (বিউটি)
  • বিইআরটি৪রেক: ০.০৪৭১ (বিউটি)
  • সিএল৪এসরেক: ০.০৪৯৮ (বিউটি)
  • আইসিএল (আমাদের): ০.০৫২৪ (বিউটি)

আইসিএল সমস্ত ডেটাসেট জুড়ে সমস্ত বেসলাইনকে ধারাবাহিকভাবে ছাড়িয়ে গেছে।

4.2 কার্যকারিতা তুলনা

আইসিএল রিকল এবং এনডিসিজি মেট্রিকে উল্লেখযোগ্য উন্নতি অর্জন করেছে (যেমন, সেরা বেসলাইনের তুলনায় বিউটিতে এনডিসিজি@১০ এ +৫.২%), যা লুকানো ইনটেন্ট মডেলিংয়ের কার্যকারিতা প্রদর্শন করে।

4.3 রোবাস্টনেস বিশ্লেষণ

একটি মূল অবদান হল উন্নত রোবাস্টনেস। আইসিএল ডেটা স্পার্সিটি (সংক্ষিপ্ত ক্রম ব্যবহার করে) এবং নয়েজি ইন্টারঅ্যাকশন (এলোমেলোভাবে ঢোকানো অপ্রাসঙ্গিক আইটেম) এর উপস্থিতিতে উচ্চতর কার্যকারিতা দেখিয়েছে। ইনটেন্ট-লেভেল কনট্রাস্টিভ লার্নিং একটি স্থিতিশীল সংকেত প্রদান করে যা পৃথক নয়েজি আইটেমের প্রতি কম সংবেদনশীল।

4.4 অ্যাবলেশন স্টাডিজ

অ্যাবলেশনগুলি উভয় উপাদানের প্রয়োজনীয়তা নিশ্চিত করেছে: (১) কনট্রাস্টিভ লস সরিয়ে ফেললে উল্লেখযোগ্য পতন ঘটে, এবং (২) শেখার পরিবর্তে স্থির/এলোমেলো ইনটেন্ট ব্যবহার করলেও কার্যকারিতা ক্ষতিগ্রস্ত হয়, যা যৌথ ইনটেন্ট লার্নিং এবং কনট্রাস্টিভ অ্যালাইনমেন্টের নকশাকে বৈধতা দেয়।

5. মূল অন্তর্দৃষ্টি ও বিশ্লেষণ

মূল অন্তর্দৃষ্টি: গবেষণাপত্রের মৌলিক অগ্রগতি শুধু আরেকটি কনট্রাস্টিভ কৌশল নয়; এটি আধুনিক গভীর সিকোয়েন্সিয়াল রিকমেন্ডারগুলিতে লুকানো ভেরিয়েবল মডেলিং এর আনুষ্ঠানিক পুনঃপ্রবর্তন। এসএএসরেকের মতো মডেলগুলি শক্তিশালী ক্রম শিক্ষার্থী হলেও, তারা মূলত "ব্ল্যাক-বক্স" অটোরিগ্রেসর। আইসিএল-এর প্রতিভা হল মডেলটিকে একটি বিচ্ছিন্ন, ব্যাখ্যাযোগ্য লুকানো ইনটেন্ট $z$ এর মাধ্যমে ক্রমটি ব্যাখ্যা করতে বাধ্য করা, একটি বাধা তৈরি করা যা নয়েজ ফিল্টার আউট করে এবং "কী" এর পিছনে "কেন" কে ধরে রাখে। এটি ভিএই-এর মতো জেনারেটিভ মডেলগুলিতে দার্শনিক পরিবর্তনের কথা মনে করিয়ে দেয়, কিন্তু রিকমেন্ডেশনের জন্য বৈষম্যমূলকভাবে প্রয়োগ করা হয়েছে।

যুক্তিগত প্রবাহ: পদ্ধতিবিদ্যাটি মার্জিতভাবে সহজ। ১) ইনটেন্ট প্রোটোটাইপ পেতে ক্রমগুলিকে ক্লাস্টার করুন (ই-ধাপ প্রক্সি)। ২) এই প্রোটোটাইপগুলিকে একটি কনট্রাস্টিভ লসের জন্য অ্যাঙ্কর হিসাবে ব্যবহার করুন। ৩) কনট্রাস্টিভ লস ক্রম এনকোডারকে এই শব্দার্থিক অ্যাঙ্করগুলির সাথে সারিবদ্ধ উপস্থাপনা তৈরি করতে শৃঙ্খলাবদ্ধ করে। ৪) এই সারিবদ্ধতা, ঘুরে, ক্লাস্টার এবং সামগ্রিক রিকমেন্ডেশন উদ্দেশ্যকে পরিশোধন করে। এটি উপস্থাপনা শেখা এবং ক্লাস্টারিংয়ের একটি গুণগত চক্র, ইএম ফ্রেমওয়ার্ক দ্বারা স্থিতিশীল—একটি ক্লাসিক ধারণা যা আধুনিক কনট্রাস্টিভ লার্নিংয়ের সাথে শক্তিশালী।

শক্তি ও ত্রুটি: প্রাথমিক শক্তি হল অভিজ্ঞতামূলকভাবে প্রদর্শিত রোবাস্টনেস। ইনটেন্ট স্তরে শেখার মাধ্যমে, মডেলটি স্পার্সিটি এবং নয়েজের প্রতি কম ভঙ্গুর হয়ে ওঠে—অনেক অতিপ্যারামিটারাইজড গভীর রিকমেন্ডারের একটি গুরুত্বপূর্ণ ত্রুটি। ফ্রেমওয়ার্কটি বেস এসআর আর্কিটেকচারের সাথেও অজ্ঞেয়বাদী। যাইহোক, প্রধান ত্রুটি হল স্থির ইনটেন্ট অনুমান। মডেলটি প্রতি ক্রমের জন্য একটি একক লুকানো ইনটেন্ট ধরে নেয়, কিন্তু বাস্তবে, ব্যবহারকারীর সেশনগুলি বহুমুখী হতে পারে (যেমন, একটি উপহার এবং নিজের জন্য ব্রাউজ করা)। ক্লাস্টারিং ধাপটি হাইপারপ্যারামিটার (ইনটেন্টের সংখ্যা কে) এবং আরম্ভের প্রতি সম্ভাব্য সংবেদনশীলতাও প্রবর্তন করে, যা গবেষণাপত্রটি উপেক্ষা করে। আরএল বা এক্সপ্লোরেশন গবেষণায় আরও গতিশীল ইনটেন্ট বিচ্ছিন্নতা পদ্ধতির তুলনায়, এটি একটি অপেক্ষাকৃত মোটা দানার সমাধান।

কার্যকরী অন্তর্দৃষ্টি: অনুশীলনকারীদের জন্য, টেকঅ্যাওয়ে পরিষ্কার: আপনার গভীর শিক্ষণ মডেলগুলিতে ব্যাখ্যাযোগ্য কাঠামো ইনজেক্ট করুন। শুধু ক্রমের দিকে বড় ট্রান্সফরমার নিক্ষেপ করবেন না। আইসিএল প্যারাডাইম রিকমেন্ডেশনের বাইরেও অভিযোজিত হতে পারে—ব্যবহারকারীর ট্র্যাজেক্টরি সহ যেকোনো কাজ (যেমন, ইউআই নেভিগেশন, শিক্ষামূলক পথ) লুকানো ইনটেন্ট কনট্রাস্টিভ লার্নিং থেকে উপকৃত হতে পারে। গবেষকদের জন্য অবিলম্বে পরবর্তী পদক্ষেপ হওয়া উচিত এটি একক, স্থির ইনটেন্ট থেকে শ্রেণীবদ্ধ বা অনুক্রমিক ইনটেন্টে বিবর্তিত করা। আমরা কীভাবে একটি ব্যবহারকারীর অভিপ্রায় একটি সেশনের সময় বিকশিত হয় তা মডেল করতে পারি? তদুপরি, এটিকে কার্যকারণ অনুমান ফ্রেমওয়ার্কের সাথে একীভূত করা আকস্মিক ক্রিয়াগুলি থেকে অভিপ্রায়-চালিত ক্রিয়াগুলিকে আলাদা করতে পারে, সত্যিকারের ব্যাখ্যাযোগ্য এবং শক্তিশালী অনুক্রমিক মডেলের দিকে এগিয়ে যেতে পারে। কোড রিলিজ প্রতিলিপি এবং সম্প্রসারণের জন্য একটি উল্লেখযোগ্য সুবিধা।

6. প্রযুক্তিগত বিবরণ ও গাণিতিক প্রণয়ন

সামগ্রিক উদ্দেশ্য ফাংশনটি স্ট্যান্ডার্ড পরবর্তী-আইটেম ভবিষ্যদ্বাণী লস (যেমন, ক্রস-এনট্রপি) কনট্রাস্টিভ ইনটেন্ট লসের সাথে একত্রিত করে:

$\mathcal{L} = \mathcal{L}_{pred} + \lambda \mathcal{L}_{cont}$

যেখানে $\lambda$ কনট্রাস্টিভ টার্মের ওজন নিয়ন্ত্রণ করে। ভবিষ্যদ্বাণী লস $\mathcal{L}_{pred}$ হল:

$\mathcal{L}_{pred} = -\sum_{u} \log P(v_{t+1}^u | S_{1:t}^u, z^u)$

ইনটেন্ট ভেরিয়েবল $z$ ক্রম এনকোডারে একীভূত করা হয়। উদাহরণস্বরূপ, একটি ট্রান্সফরমার-ভিত্তিক এনকোডারে, ইনটেন্ট এমবেডিং $g(z)$ কে আইটেম ক্রমে একটি বিশেষ `[ইনটেন্ট]` টোকেন হিসাবে প্রিপেন্ড করা যেতে পারে, যা মডেলটিকে ভবিষ্যদ্বাণী তৈরি করার সময় ইনটেন্ট প্রসঙ্গে মনোযোগ দিতে দেয়।

7. বিশ্লেষণ ফ্রেমওয়ার্ক: উদাহরণ কেস

পরিস্থিতি: একটি ই-কমার্স প্ল্যাটফর্মে ব্যবহারকারী সেশন বিশ্লেষণ করা।

আইসিএল ছাড়া: একটি মডেল ব্যবহারকারী এ-এর ক্রম দেখে: ["হাইকিং বুট", "পানির বোতল", "এনার্জি বার"]। এটি সহ-ঘটনা প্যাটার্নের ভিত্তিতে "ব্যাকপ্যাক" ভবিষ্যদ্বাণী করে।

আইসিএল সহ:

  1. ইনটেন্ট ক্লাস্টারিং: মডেলটি "আউটডোর প্রিপারেশন" এর জন্য একটি ইনটেন্ট ক্লাস্টার শিখেছে। ব্যবহারকারী এ-এর ক্রম উপস্থাপনা এই ক্লাস্টারে নির্ধারিত হয়েছে।
  2. কনট্রাস্টিভ লার্নিং: প্রশিক্ষণের সময়, ["হাইকিং বুট", "পানির বোতল", "এনার্জি বার"] এর উপস্থাপনা "আউটডোর প্রিপারেশন" ইনটেন্ট এমবেডিংয়ের কাছাকাছি টানা হয়।
  3. উন্নত ভবিষ্যদ্বাণী: ইনফারেন্সে, মডেলটি, "আউটডোর প্রিপারেশন" ইনটেন্ট সম্পর্কে সচেতন হয়ে, এখন "মশা প্রতিরোধক" বা একটি "কম্পাস"—ইনটেন্টের সাথে দৃঢ়ভাবে যুক্ত আইটেমগুলি কিন্তু অগত্যা সঠিক ঐতিহাসিক ক্রমের সাথে নয়—স্পার্স ডেটার জন্য আরও ভাল সাধারণীকরণ এবং রোবাস্টনেস প্রদর্শন করে।

8. ভবিষ্যতের প্রয়োগ ও দিকনির্দেশনা

  • মাল্টি-ডোমেন ও ক্রস-প্ল্যাটফর্ম রিকমেন্ডেশন: লুকানো ইনটেন্ট (যেমন, "ফিটনেস") ডোমেন জুড়ে ভাগ করা যেতে পারে (ক্রীড়া সামগ্রী, পুষ্টি অ্যাপ, ভিডিও কন্টেন্ট), ট্রান্সফার লার্নিং সক্ষম করে।
  • ব্যাখ্যাযোগ্য এআই (এক্সএআই): ইনটেন্ট লেবেল সহ রিকমেন্ডেশন প্রদান ("সুপারিশ করা হয়েছে কারণ আপনি মনে হয় একটি মাছ ধরার ট্রিপ পরিকল্পনা করছেন") ব্যবহারকারীর বিশ্বাস এবং সন্তুষ্টি উল্লেখযোগ্যভাবে বাড়াতে পারে।
  • কনভারসেশনাল রিকমেন্ডার সিস্টেম: ইনটেন্টগুলি প্রাকৃতিক ভাষা সংলাপ এবং আইটেম রিকমেন্ডেশনের মধ্যে একটি সেতু হিসাবে কাজ করতে পারে, কথোপকথন এজেন্টের সুসংগতি উন্নত করতে পারে।
  • গতিশীল ইনটেন্ট মডেলিং: টেম্পোরাল পয়েন্ট প্রসেস বা স্টেট-স্পেস মডেল ব্যবহার করে একটি একক সেশনের মধ্যে ইনটেন্ট ট্রানজিশন মডেল করতে আইসিএল প্রসারিত করা (যেমন, "গবেষণা" থেকে "ক্রয়")।
  • লার্জ ল্যাঙ্গুয়েজ মডেল (এলএলএম) এর সাথে একীকরণ: শেখা ইনটেন্ট ক্লাস্টারগুলির সমৃদ্ধ, পাঠ্য বিবরণ তৈরি করতে এলএলএম ব্যবহার করা আরও ভাল ব্যাখ্যাযোগ্যতার জন্য, বা ইনটেন্ট প্রোটোটাইপ শুরু করতে এলএলএম এমবেডিং ব্যবহার করা।

9. তথ্যসূত্র

  1. চেন, ওয়াই., লিউ, জেড., লি, জে., ম্যাকঅলি, জে., এবং জিয়ং, সি. (২০২২)। ইনটেন্ট কনট্রাস্টিভ লার্নিং ফর সিকোয়েন্সিয়াল রিকমেন্ডেশন। প্রসিডিংস অফ দ্য এসিএম ওয়েব কনফারেন্স ২০২২ (ডব্লিউডব্লিউডব্লিউ '২২)
  2. কাং, ডব্লিউ. সি., এবং ম্যাকঅলি, জে. (২০১৮)। সেলফ-অ্যাটেনটিভ সিকোয়েন্সিয়াল রিকমেন্ডেশন। ২০১৮ আইইইই ইন্টারন্যাশনাল কনফারেন্স অন ডেটা মাইনিং (আইসিডিএম)
  3. সান, এফ., লিউ, জে., উ, জে., পেই, সি., লিন, এক্স., ওউ, ডব্লিউ., এবং জিয়াং, পি. (২০১৯)। বিইআরটি৪রেক: সিকোয়েন্সিয়াল রিকমেন্ডেশন উইথ বাইডাইরেকশনাল এনকোডার রিপ্রেজেন্টেশনস ফ্রম ট্রান্সফরমার। প্রসিডিংস অফ দ্য ২৮তম এসিএম ইন্টারন্যাশনাল কনফারেন্স অন ইনফরমেশন অ্যান্ড নলেজ ম্যানেজমেন্ট
  4. জাই, এক্স., সান, এফ., লিউ, জেড., উ, এস., গাও, জে., ঝাং, জে., ... এবং কিউ, বি. (২০২২)। কনট্রাস্টিভ লার্নিং ফর সিকোয়েন্সিয়াল রিকমেন্ডেশন। ২০২২ আইইইই ৩৮তম ইন্টারন্যাশনাল কনফারেন্স অন ডেটা ইঞ্জিনিয়ারিং (আইসিডিই)
  5. ওর্ড, এ. ভি. ডি., লি, ওয়াই., এবং ভিনিয়ালস, ও. (২০১৮)। রিপ্রেজেন্টেশন লার্নিং উইথ কনট্রাস্টিভ প্রেডিক্টিভ কোডিং। আরক্সিভ প্রিপ্রিন্ট আরক্সিভ:১৮০৭.০৩৭৪৮
  6. কিংমা, ডি. পি., এবং ওয়েলিং, এম. (২০১৩)। অটো-এনকোডিং ভ্যারিয়েশনাল বেইজ। আরক্সিভ প্রিপ্রিন্ট আরক্সিভ:১৩১২.৬১১৪
  7. জ্যানাচ, ডি., এবং জুগোভাক, এম. (২০১৯)। মেজারিং দ্য বিজনেস ভ্যালু অফ রিকমেন্ডার সিস্টেমস। এসিএম ট্রানজেকশনস অন ম্যানেজমেন্ট ইনফরমেশন সিস্টেমস (টিএমআইএস), ১০(৪), ১-২৩।