ভাষা নির্বাচন করুন

সিকোয়েন্সিয়াল রিকমেন্ডেশনের জন্য ইনটেন্ট কনট্রাস্টিভ লার্নিং: বিশ্লেষণ ও অন্তর্দৃষ্টি

আইসিএল-এর বিশ্লেষণ, একটি নতুন স্ব-তত্ত্বাবধানে শেখার প্যারাডাইম যা ক্লাস্টারিং এবং কনট্রাস্টিভ লার্নিংয়ের মাধ্যমে লুকানো ব্যবহারকারীর অভিপ্রায় কাজে লাগিয়ে সিকোয়েন্সিয়াল রিকমেন্ডেশনের রোবাস্টনেস এবং কার্যকারিতা উন্নত করে।
ledfishingfloat.com | PDF Size: 0.6 MB
রেটিং: 4.5/5
আপনার রেটিং
আপনি ইতিমধ্যে এই ডকুমেন্ট রেট করেছেন
PDF ডকুমেন্ট কভার - সিকোয়েন্সিয়াল রিকমেন্ডেশনের জন্য ইনটেন্ট কনট্রাস্টিভ লার্নিং: বিশ্লেষণ ও অন্তর্দৃষ্টি

1. ভূমিকা ও সংক্ষিপ্ত বিবরণ

সিকোয়েন্সিয়াল রিকমেন্ডেশন (এসআর) ব্যবহারকারীর ঐতিহাসিক আচরণের ক্রমের ভিত্তিতে তাদের পরবর্তী মিথস্ক্রিয়া ভবিষ্যদ্বাণী করার লক্ষ্য রাখে। এসএএসরেক এবং বিইআরটি৪রেকের মতো গভীর শিক্ষণ মডেলগুলি সর্বোচ্চ ফলাফল অর্জন করলেও, তারা প্রায়শই একটি গুরুত্বপূর্ণ উপাদানকে উপেক্ষা করে: লুকানো ব্যবহারকারীর অভিপ্রায়। ব্যবহারকারীর ক্রিয়াকলাপ (যেমন, মাছ ধরার সরঞ্জাম কেনা, ছুটির উপহার ব্রাউজ করা) অন্তর্নিহিত, অদেখা লক্ষ্য দ্বারা পরিচালিত হয়। "সিকোয়েন্সিয়াল রিকমেন্ডেশনের জন্য ইনটেন্ট কনট্রাস্টিভ লার্নিং" (আইসিএল) শীর্ষক গবেষণাপত্রটি দাবি করে যে, এই অভিপ্রায়গুলিকে স্পষ্টভাবে মডেলিং করা এবং কাজে লাগানো রিকমেন্ডেশনের নির্ভুলতা ও রোবাস্টনেস উল্লেখযোগ্যভাবে উন্নত করতে পারে।

মূল চ্যালেঞ্জটি হল অভিপ্রায়গুলি সরাসরি পর্যবেক্ষণযোগ্য নয়। আইসিএল একটি নতুন স্ব-তত্ত্বাবধানে শেখার প্যারাডাইম চালু করে এটির সমাধান করে যা লুকানো অভিপ্রায় বন্টন এবং এসআর মডেল অপ্টিমাইজেশন যুগপৎভাবে শেখে। এই পদ্ধতিটি আচরণের ক্রমগুলিকে ক্লাস্টারিং করে অভিপ্রায় অনুমান করা এবং কনট্রাস্টিভ লার্নিং ব্যবহার করে ক্রম উপস্থাপনাগুলিকে তাদের অনুমিত অভিপ্রায়ের সাথে সারিবদ্ধ করার মধ্যে পর্যায়ক্রমে পরিবর্তিত হয়, সবই একটি এক্সপেক্টেশন-ম্যাক্সিমাইজেশন (ইএম) ফ্রেমওয়ার্কের মধ্যে।

মূল অন্তর্দৃষ্টি

  • লুকানো চলরাশি হিসাবে অভিপ্রায়: ব্যবহারকারীর আচরণ গোপন অভিপ্রায় দ্বারা নিয়ন্ত্রিত হয়, যেগুলোকে ক্রম উপস্থাপনাকে সমৃদ্ধ করার জন্য একটি লুকানো চলরাশি হিসাবে মডেল করা যেতে পারে।
  • অভিপ্রায় আবিষ্কারের জন্য ক্লাস্টারিং: ব্যবহারকারীর ক্রমগুলিতে অনিরীক্ষিত ক্লাস্টারিং পার্শ্ব তথ্য ছাড়াই অভিপ্রায় আবিষ্কারের জন্য একটি প্রক্সি হিসাবে কাজ করে।
  • কনট্রাস্টিভ সারিবদ্ধকরণ: একটি কনট্রাস্টিভ লস একটি ক্রম দৃশ্য এবং এর ক্লাস্টার-নির্ধারিত অভিপ্রায়ের মধ্যে চুক্তিকে সর্বাধিক করে, আরও রোবাস্ট এবং অভিপ্রায়-সচেতন উপস্থাপনা তৈরি করে।
  • রোবাস্টনেস লাভ: এই পদ্ধতিটি স্বাভাবিকভাবেই ডেটা স্পার্সিটি এবং নয়েজি মিথস্ক্রিয়ার অধীনে মডেলের কার্যকারিতা উন্নত করে, যা সাধারণ বাস্তব-বিশ্বের চ্যালেঞ্জ।

2. পদ্ধতিবিদ্যা: ইনটেন্ট কনট্রাস্টিভ লার্নিং (আইসিএল)

আইসিএল একটি সাধারণ শেখার প্যারাডাইম যা বিভিন্ন ব্যাকবোন এসআর মডেলের (যেমন, জিআরইউ, ট্রান্সফরমার) সাথে একীভূত করা যেতে পারে।

2.1 সমস্যা প্রণয়ন

একটি ব্যবহারকারী $u$ দেওয়া আছে যার একটি মিথস্ক্রিয়া ক্রম $S^u = [v_1^u, v_2^u, ..., v_t^u]$, লক্ষ্য হল পরবর্তী আইটেম $v_{t+1}^u$ ভবিষ্যদ্বাণী করা। আইসিএল প্রতিটি ক্রমের জন্য একটি লুকানো অভিপ্রায় চলরাশি $z$ চালু করে, যা মিথস্ক্রিয়াগুলিকে চালিত করা অন্তর্নিহিত লক্ষ্যকে উপস্থাপন করে।

2.2 ক্লাস্টারিংয়ের মাধ্যমে লুকানো অভিপ্রায় মডেলিং

যেহেতু অভিপ্রায়গুলি লেবেলবিহীন, আইসিএল অভিপ্রায় শ্রেণিগুলিকে অনুমান করার জন্য ক্রম উপস্থাপনাগুলিতে ক্লাস্টারিং ব্যবহার করে। ধরা যাক $h^u$ এসআর এনকোডার থেকে ক্রম উপস্থাপনা। একটি ক্লাস্টারিং অ্যালগরিদম (যেমন, কে-মিনস) প্রতিটি ক্রমকে একটি ক্লাস্টার $c$ এ নির্ধারণ করে, যা এর অভিপ্রায় $z$ এর জন্য একটি সারোগেট হিসাবে কাজ করে। ক্লাস্টার নির্ধারণ বন্টন $p(c|S^u)$ মডেল করা হয়।

2.3 কনট্রাস্টিভ স্ব-তত্ত্বাবধানে শেখা

এটি আইসিএল-এর মূল। একটি ক্রম $S^u$ এর জন্য, দুটি সম্পর্কিত দৃশ্য ($S^{u,1}$, $S^{u,2}$) ডেটা অগমেন্টেশন (যেমন, মাস্কিং, ক্রপিং) এর মাধ্যমে তৈরি করা হয়। উভয়ই এনকোড করা হয় এবং ক্লাস্টারে ($c^1$, $c^2$) নির্ধারণ করা হয়। কনট্রাস্টিভ লসের লক্ষ্য হল একই ক্রমের দুটি দৃশ্যের উপস্থাপনাগুলিকে কাছাকাছি টানা এবং অন্য ক্রমের দৃশ্যগুলি থেকে দূরে সরানো, তাদের অভিপ্রায়ের শর্তাধীন

অভিপ্রায়-সচেতন কনট্রাস্টিভ লস নিম্নরূপ প্রণয়ন করা যেতে পারে: $$\mathcal{L}_{ICL} = -\log \frac{\exp(\text{sim}(h^{u,1}, h^{u,2}) / \tau)}{\sum_{k \in \mathcal{B}} \mathbb{1}_{[c^k = c^u]} \exp(\text{sim}(h^{u,1}, h^{k}) / \tau)}$$ যেখানে $\text{sim}$ একটি সাদৃশ্য ফাংশন (যেমন, কোসাইন), $\tau$ একটি তাপমাত্রা প্যারামিটার, এবং $\mathcal{B}$ একটি ব্যাচ। নির্দেশক ফাংশন $\mathbb{1}_{[c^k = c^u]}$ নেগেটিভ নমুনাগুলিকে একই অভিপ্রায় সহ ক্রমগুলিতে ফোকাস করে, একটি কঠিন, আরও তথ্যপূর্ণ কনট্রাস্টিভ টাস্ক তৈরি করে।

2.4 জেনারেলাইজড ইএম ফ্রেমওয়ার্কের মাধ্যমে প্রশিক্ষণ

প্রশিক্ষণ একটি ইএম-সদৃশ পদ্ধতিতে দুটি ধাপের মধ্যে পর্যায়ক্রমে পরিবর্তিত হয়:

  1. ই-ধাপ (অভিপ্রায় অনুমান): এসআর মডেল প্যারামিটার স্থির করুন, ক্রম উপস্থাপনা গণনা করুন, এবং অভিপ্রায় নির্ধারণ $p(c|S^u)$ আপডেট করতে ক্লাস্টারিং সম্পাদন করুন।
  2. এম-ধাপ (মডেল অপ্টিমাইজেশন): অভিপ্রায় নির্ধারণ স্থির করুন, এবং সম্মিলিত লস ব্যবহার করে এসআর মডেল প্যারামিটার অপ্টিমাইজ করুন: $\mathcal{L} = \mathcal{L}_{SR} + \lambda \mathcal{L}_{ICL}$, যেখানে $\mathcal{L}_{SR}$ হল প্রাথমিক রিকমেন্ডেশন লস (যেমন, ক্রস-এনট্রপি) এবং $\lambda$ কনট্রাস্টিভ লসের ওজন নিয়ন্ত্রণ করে।
এই পুনরাবৃত্তিমূলক প্রক্রিয়াটি অভিপ্রায় বোঝা এবং রিকমেন্ডেশন গুণমান উভয়কেই পরিশোধন করে।

3. প্রযুক্তিগত বিবরণ ও গাণিতিক প্রণয়ন

আইসিএল-এর সামগ্রিক উদ্দেশ্য ফাংশন হল: $$\mathcal{L}_{total} = \underbrace{-\sum_{u} \log P(v_{t+1}^u | S^u)}_{\text{পরবর্তী-আইটেম ভবিষ্যদ্বাণী লস}} + \lambda \underbrace{\mathcal{L}_{ICL}}_{\text{অভিপ্রায় কনট্রাস্টিভ লস}}$$ ই-ধাপের ক্লাস্টারিংকে লুকানো চলরাশি মডেল $p(S^u, c)$ এর সম্ভাবনা সর্বাধিক করা হিসাবে দেখা যেতে পারে। এম-ধাপের কনট্রাস্টিভ লস একটি রেগুলারাইজার হিসাবে কাজ করে যা অভিপ্রায় সামঞ্জস্য প্রয়োগ করে, যার ফলে এমন উপস্থাপনা তৈরি হয় যা একই অভিপ্রায় ক্লাস্টারের মধ্যে নয়েজের প্রতি অপরিবর্তনীয়—এটি সিমসিএলআর এবং মোকোর মতো কনট্রাস্টিভ লার্নিং সাহিত্যে ইনভেরিয়েন্স প্রিন্সিপলের অনুরূপ একটি ধারণা।

4. পরীক্ষামূলক ফলাফল ও বিশ্লেষণ

গবেষণাপত্রটি চারটি বাস্তব-বিশ্বের ডেটাসেটে আইসিএল যাচাই করে: বিউটি, স্পোর্টস, টয়স, এবং ইয়েল্প

4.1 ডেটাসেট ও বেসলাইন

বেসলাইনের মধ্যে রয়েছে ঐতিহ্যবাহী (বিপিআর-এমএফ), সিকোয়েন্সিয়াল (জিআরইউ৪রেক, এসএএসরেক, বিইআরটি৪রেক), এবং কনট্রাস্টিভ লার্নিং পদ্ধতি (সিএল৪এসরেক)। আইসিএল এসএএসরেক এবং বিইআরটি৪রেক ব্যাকবোনের উপর প্রয়োগ করা হয়।

4.2 কার্যকারিতা তুলনা

আইসিএল রিকল@এন এবং এনডিসিজি@এন মেট্রিক জুড়ে ধারাবাহিকভাবে সমস্ত বেসলাইনকে ছাড়িয়ে যায়। উদাহরণস্বরূপ, বিউটি ডেটাসেটে, আইসিএল (বিইআরটি৪রেক) ভ্যানিলা বিইআরটি৪রেকের তুলনায় রিকল@২০ প্রায় ৮% উন্নত করেছে। এটি অভিপ্রায় মডেলিং অন্তর্ভুক্ত করার সার্বজনীন সুবিধা প্রদর্শন করে।

কার্যকারিতা বৃদ্ধি (উদাহরণ: বিউটি ডেটাসেট)

ব্যাকবোন: বিইআরটি৪রেক
রিকল@২০: +৭.৯%
এনডিসিজি@২০: +৯.১%

4.3 রোবাস্টনেস বিশ্লেষণ

একটি মূল দাবি হল উন্নত রোবাস্টনেস। ডেটা স্পার্সিটি (সংক্ষিপ্ত ক্রম ব্যবহার করে) এবং নয়েজি মিথস্ক্রিয়া (এলোমেলোভাবে আইটেম প্রতিস্থাপন করে) এর অধীনে পরীক্ষাগুলি দেখায় যে আইসিএল বেসলাইনগুলির তুলনায় আরও মার্জিতভাবে অবনতি ঘটায়। অভিপ্রায় ক্লাস্টারিং একটি স্থিতিশীল সংকেত প্রদান করে, যা মডেলটিকে সীমিত/নয়েজি ডেটায় ভুয়া পারস্পরিক সম্পর্কের পরিবর্তে ভাগ করা অভিপ্রায় প্যাটার্নের উপর নির্ভর করতে দেয়।

4.4 অ্যাবলেশন স্টাডিজ

অ্যাবলেশনগুলি উভয় উপাদানের প্রয়োজনীয়তা নিশ্চিত করে:

  • ক্লাস্টারিং ছাড়া: এলোমেলো বা স্থির অভিপ্রায় ব্যবহার করা কার্যকারিতা ক্ষতিগ্রস্ত করে, অর্থপূর্ণ অভিপ্রায় আবিষ্কারের প্রয়োজনীয়তা প্রমাণ করে।
  • কনট্রাস্টিভ লস ছাড়া: ক্লাস্টার আইডিগুলিকে কেবল বৈশিষ্ট্য হিসাবে ব্যবহার করা কনট্রাস্টিভ সারিবদ্ধকরণের চেয়ে কম কার্যকর, যা উপস্থাপনা শেখার উদ্দেশ্যের গুরুত্ব তুলে ধরে।
  • $\lambda$ এর প্রভাব: একটি মাঝারি $\lambda$ এ কার্যকারিতা শীর্ষে পৌঁছায়, যা টাস্ক-নির্দিষ্ট এবং অভিপ্রায়-সচেতন শেখার মধ্যে একটি ভারসাম্য নির্দেশ করে।

5. বিশ্লেষণ ফ্রেমওয়ার্ক: মূল অন্তর্দৃষ্টি ও যৌক্তিক প্রবাহ

মূল অন্তর্দৃষ্টি: গবেষণাপত্রের যুগান্তকারী আবিষ্কার একটি নতুন নিউরাল আর্কিটেকচার নয়, বরং একটি শেখার প্যারাডাইম। এটি সঠিকভাবে চিহ্নিত করে যে আধুনিক এসআর-এর আচিলিস হিল হল ব্যবহারকারীর ক্রিয়াকলাপের পিছনের "কেন" সম্পর্কে অন্ধত্ব। অভিপ্রায়কে একটি লুকানো চলরাশি হিসাবে ফ্রেম করা এবং ক্লাস্টারিং ও কনট্রাস্টিভ লার্নিংয়ের সরল কিন্তু শক্তিশালী সরঞ্জাম ব্যবহার করে, আইসিএল শব্দার্থিক কাঠামোকে এমন কিছুতে ইনজেক্ট করে যা অন্যথায় কেবল ক্রমগুলির উপর প্যাটার্ন ম্যাচিং। এটি সাইকেলজিএএন গবেষণাপত্রটি কীভাবে সাইকেল-কনসিসটেন্সি চালু করে আনপেয়ার্ড ইমেজ ট্রান্সলেশন সক্ষম করেছিল তার কথা মনে করিয়ে দেয়—এটি একটি ধারণাগত সীমাবদ্ধতা যা সরাসরি তত্ত্বাবধান অনুপস্থিত থাকলে শেখার দিকনির্দেশনা দেয়।

যৌক্তিক প্রবাহ: যুক্তিটি আকর্ষণীয় এবং সুগঠিত: ১) পর্যবেক্ষণ করুন যে ব্যবহারকারীর আচরণ অভিপ্রায়-চালিত (চিত্র ১)। ২) স্বীকার করুন যে অভিপ্রায়গুলি লুকানো। ৩) আচরণের উপর ক্লাস্টারিংয়ের মাধ্যমে সেগুলি আবিষ্কার করার প্রস্তাব দিন (একটি যুক্তিসঙ্গত প্রক্সি)। ৪) আবিষ্কৃত অভিপ্রায়গুলি ব্যবহার করে একটি স্মার্টার কনট্রাস্টিভ লার্নিং টাস্ক তৈরি করুন—সকল নেগেটিভকে সমানভাবে কনট্রাস্ট করার পরিবর্তে, একই অভিপ্রায় ক্লাস্টারের মধ্যে হার্ড নেগেটিভগুলিতে ফোকাস করুন। ৫) পুনরাবৃত্তিমূলক পরিশোধনের জন্য এটি একটি ইএম লুপের মধ্যে এম্বেড করুন। সমস্যা সনাক্তকরণ থেকে সমাধান আর্কিটেকচারে প্রবাহ পরিষ্কার এবং যৌক্তিক।

6. শক্তি, ত্রুটি ও বাস্তবায়নযোগ্য অন্তর্দৃষ্টি

শক্তি:

  • আর্কিটেকচারের উপর প্যারাডাইম: বিদ্যমান এসওটিএ মডেলগুলির (এসএএসরেক, বিইআরটি৪রেক) সাথে এর প্লাগ-অ্যান্ড-প্লে প্রকৃতি সহজ গৃহীতির জন্য একটি প্রধান শক্তি।
  • ডেটা-দক্ষতা: রোবাস্টনেস লাভ সরাসরি কোল্ড-স্টার্ট এবং নয়েজি লগের মতো ব্যয়বহুল বাস্তব-বিশ্বের সমস্যাগুলির সমাধান করে।
  • ধারণাগত সৌন্দর্য: এটি লুকানো চলরাশি মডেল (ঐতিহ্যবাহী রিকমেন্ডেশনে সাধারণ) আধুনিক স্ব-তত্ত্বাবধানে গভীর শিক্ষণের সাথে সংযুক্ত করে।

ত্রুটি ও সমালোচনা:

  • স্থির অভিপ্রায় ধারণা: ক্লাস্টারিং একটি সম্পূর্ণ ক্রমকে একটি একক অভিপ্রায় নির্ধারণ করে। বাস্তবে, অভিপ্রায়গুলি সেশনের মাঝামাঝি বিবর্তিত হতে পারে (যেমন, "গবেষণা" থেকে "ক্রয়")। মডেলটিতে সূক্ষ্ম-দানাদার, সময়গত অভিপ্রায় মডেলিংয়ের অভাব রয়েছে।
  • ক্লাস্টার গুণমান বাধা: সম্পূর্ণ ফ্রেমওয়ার্কটি অনিরীক্ষিত ক্লাস্টারিংয়ের গুণমানের উপর নির্ভরশীল। নয়েজি বা সাবঅপটিমাল ক্লাস্টারগুলি ত্রুটি ছড়াতে পারে। গবেষণাপত্রটি কে-মিনস ব্যবহার করে; আরও উন্নত পদ্ধতি (যেমন, গাউসিয়ান মিশ্রণ মডেল, গভীর ক্লাস্টারিং) অন্বেষণ করা যেতে পারে।
  • গণনামূলক ওভারহেড: পুনরাবৃত্তিমূলক ইএম প্রশিক্ষণ এবং অনলাইন ক্লাস্টারিং স্ট্যান্ডার্ড এন্ড-টু-এন্ড প্রশিক্ষণের তুলনায় উল্লেখযোগ্য গণনামূলক খরচ যোগ করে।

অনুশীলনকারীদের জন্য বাস্তবায়নযোগ্য অন্তর্দৃষ্টি:

  1. একটি রেগুলারাইজার হিসাবে আইসিএল বাস্তবায়ন করুন: স্পার্স বা নয়েজি ডেটার মুখোমুখি হলে, আপনার বিদ্যমান এসআর মডেলের উপর আইসিএল কনট্রাস্টিভ লসকে একটি রেগুলারাইজার হিসাবে ব্যবহার করুন। একটি ছোট $\lambda$ দিয়ে শুরু করুন।
  2. ক্লাস্টার সামঞ্জস্য পর্যবেক্ষণ করুন: ক্লাস্টারিংকে একটি ব্ল্যাক বক্স হিসাবে বিবেচনা করবেন না। আবিষ্কৃত "অভিপ্রায়" অর্থপূর্ণ তা নিশ্চিত করতে একটি হোল্ড-আউট সেটে ক্লাস্টার সামঞ্জস্য (যেমন, সিলুয়েট স্কোরের মাধ্যমে) মূল্যায়ন করুন।
  3. গতিশীল অভিপ্রায় অন্বেষণ করুন: দীর্ঘ বা জটিল সেশনের জন্য, ক্লাস্টারিং করার আগে ক্রমগুলিকে সেগমেন্ট করার বা অনুমিত অভিপ্রায় প্রাসঙ্গিকতার উপর ভিত্তি করে আইটেমগুলিকে ওজন করার জন্য অ্যাটেনশন মেকানিজম ব্যবহার করার পরীক্ষা করুন।

7. প্রয়োগের সম্ভাবনা ও ভবিষ্যৎ দিকনির্দেশনা

স্বল্পমেয়াদী প্রয়োগ:

  • ই-কমার্স ও খুচরা: পরবর্তী-পণ্য রিকমেন্ডেশন, বাস্কেট বিশ্লেষণ, এবং নতুন ব্যবহারকারী/কোল্ড-স্টার্ট পরিস্থিতিতে রিকমেন্ডেশন উন্নত করার জন্য সরাসরি প্রযোজ্য।
  • কন্টেন্ট স্ট্রিমিং: ভিউিং "অভিপ্রায়" মডেলিং (যেমন, "ব্যাকগ্রাউন্ড নয়েজ," "গভীর শেখা," "পারিবারিক মুভি নাইট") নেটফ্লিক্স বা ইউটিউবের মতো প্ল্যাটফর্মে প্লেলিস্ট এবং পরবর্তী-ভিডিও রিকমেন্ডেশন উন্নত করতে পারে।

ভবিষ্যৎ গবেষণা দিকনির্দেশনা:

  • হায়ারার্কিকাল ও গতিশীল অভিপ্রায়: একটি একক ক্রম-স্তরের অভিপ্রায় থেকে অভিপ্রায়ের একটি শ্রেণিবিন্যাসে স্থানান্তর বা একটি সেশনের মধ্যে অভিপ্রায় রূপান্তর মডেলিং করা।
  • পার্শ্ব তথ্যের সাথে একীকরণ: যদিও আইসিএল পার্শ্ব তথ্য এড়িয়ে চলে, দুর্বল সংকেতের (যেমন, আইটেম বিভাগ, দিনের সময়) সাথে একত্রিত করা অভিপ্রায় আবিষ্কারকে বুটস্ট্র্যাপ এবং উন্নত করতে পারে।
  • তাত্ত্বিক ভিত্তি: জেনারেলাইজড ইএম পদ্ধতির অভিসারী বৈশিষ্ট্য এবং অভিপ্রায়-সচেতন কনট্রাস্টিভ লসের সাধারণীকরণ সীমার একটি আনুষ্ঠানিক বিশ্লেষণ।
  • ক্রস-ডোমেইন অভিপ্রায় স্থানান্তর: একটি ডোমেইনে (যেমন, শপিং) শেখা অভিপ্রায়গুলি অন্য ডোমেইনে (যেমন, নিউজ রিকমেন্ডেশন) জানাতে বা স্থানান্তর করতে পারে কিনা তা তদন্ত করা।

8. তথ্যসূত্র

  1. Chen, Y., Liu, Z., Li, J., McAuley, J., & Xiong, C. (2022). Intent Contrastive Learning for Sequential Recommendation. Proceedings of the ACM Web Conference 2022 (WWW '22).
  2. Kang, W. C., & McAuley, J. (2018). Self-attentive sequential recommendation. 2018 IEEE International Conference on Data Mining (ICDM).
  3. Sun, F., Liu, J., Wu, J., Pei, C., Lin, X., Ou, W., & Jiang, P. (2019). BERT4Rec: Sequential recommendation with bidirectional encoder representations from transformer. Proceedings of the 28th ACM International Conference on Information and Knowledge Management.
  4. Chen, T., Kornblith, S., Norouzi, M., & Hinton, G. (2020). A simple framework for contrastive learning of visual representations. International conference on machine learning (ICML).
  5. Zhu, J. Y., Park, T., Isola, P., & Efros, A. A. (2017). Unpaired image-to-image translation using cycle-consistent adversarial networks. Proceedings of the IEEE international conference on computer vision (ICCV).
  6. Xie, J., Girshick, R., & Farhadi, A. (2016). Unsupervised deep embedding for clustering analysis. International conference on machine learning (ICML).