সার্চ ইন্জিন অপটিমাইজেশন এর কৌশলগুলো ( পর্ব- ০২)

আজকে আপনাদের সাথে শেয়ার করব সার্চ ইন্জিন অপটিমাইজেশন এর কিছু সহজ বিষয় নিয়ে । যারা এই ব্যাপারে একদম নতুন হয়ত তারা উপকৃত হবেন আশা করি।আজকের পর্বে আমি কয়েকটি গুরুত্বপূর্ণ সার্চ ইন্জিন এবং ব্যবহার নিয়ে কথা বলব। পরবর্তী পর্বে আরো টিপস নিয়ে কথা বলব।

বিশেষ সংযোজনঃ পুর্ববর্তী পর্ব ( সার্চ ইন্জিন অপটিমাইজেশন পর্ব- ০১) পরতে এই লিঙ্কে ক্লিক করুনঃ

সার্চ ইন্জিন অপটিমাইজেশন ( পর্ব- ০১)

কয়েকটি গুরুত্বপূর্ণ এসইও (SEO):

 সার্চ ইঞ্জিন অপটিমাইজেশন বা এসইও হচ্ছে ধারাবাহিক পরিবর্তনের মধ্যমে একটি ওয়েবসাইটের উন্নতি সাধন করা। এই পরিবর্তনগুলো হয়ত আলাদা ভাবে চোখে পড়বে না কিন্তু সামগ্রিকভাবে এর মাধ্যমে একটি সাইটের ব্রাউজিং এর স্বাচ্ছন্দবোধ অনেকাংশে বেড়ে যায় এবং অর্গানিক বা স্বাভাবিক সার্চ রেজাল্টে সাইটকে শীর্ষ অবস্থানের দিকে নিয়ে যায়। একটি ওয়েবসাইটকে অপটিমাইজ বা উন্নত করার ক্ষেত্রে সাইটের ভিজিটরদের সুবিধার কথাই প্রথমে চিন্তা করা উচিত। কারণ ভিজিটররাই হচ্ছে একটি সাইটের মূল ভোক্তা, কোন সার্চ ইঞ্জিন নয় আর তারা সাইটকে খুজে পেতে সার্চ ইঞ্জিনকে একটি মাধ্যম হিসেবে ব্যবহার করে মাত্র। এসইও একটি সময় সাপেক্ষ ব্যাপার এবং একটি চলমান প্রক্রিয়া। রাতারাতি একটি ওয়েবসাইটকে সার্চ ইঞ্জিনের প্রথম পাতায় নিয়ে আসা যায় না। তবে নিয়মিত উন্নয়ন করতে থাকলে এর ফলাফল অনেক সুদূরপ্রসারী।

 সাইট ম্যাপের ব্যবহার:

সাইট ম্যাপ দুই ধরনের হয়ে থাকে, প্রথমটি হচ্ছে একটি সাধারণ HMLT পৃষ্ঠা যেখানে সাইটের সকল পৃষ্ঠার লিংক যুক্ত করা হয়। মূলত কোন পৃষ্ঠা খুজে পেতে অসুবিধা হলে ব্যবহারকারীরা এই সাইট ম্যাপের সহায়তা নেয়। সার্চ ইঞ্জিনও এই সাইট ম্যাপ থেকে সাইটের সকল পৃষ্ঠার লিংক পেয়ে থাকে। দ্বিতীয় সাইটম্যাপ হচ্ছে একটি XML ফাইল  যা “গুগল ওয়েবমাস্টার টুলস” নামক গুগলের একটি সাইটে সাবমিট করা হয়। সাইটের ঠিকানা হচ্ছেhttp://www.google.com/webmasters/tools । এই ফাইলের মাধ্যমে সাইটের সকল পৃষ্ঠা সম্পর্কে গুগল ভালভাবে অবগত হতে পারে। এই সাইটম্যাপ ফাইল তৈরি করতে গুগল একটি ওপেনসোর্স স্ক্রিপ্ট প্রদান করে যা এই লিংক থেকে পাওয়া যাবে - http://code.google.com/p/googlesitemapgenerator

 robots.txt ফাইলের ব্যবহার:

ক্রাউলার (Crawler) হচ্ছে একধরনের কম্পিউটার প্রোগ্রাম যা স্বয়ংক্রিয়ভাবে ইন্টারনেট ব্রাউজিং করে এবং নতুন নতুন তথ্য তার ডাটাবেইজে সংরক্ষণ (বা ক্রাউলিং) এবং সাজিয়ে (বা ইন্ডেক্সিং) রাখে। ক্রাউলার প্রোগ্রামকে প্রায় সময় ইন্ডেক্সার, বট, ওয়েব স্পাইডার, ওয়েব রোবট ইত্যাদি নামে ডাকা হয়। গুগলের ক্রাউলারটি “গুগলবট” নামে পরিচিত। গুগলবট নিরবিচ্ছিন্নভাবে ইন্টারনেটে বিচরণ করে বেড়ায় এবং যখনই নতুন কোন ওয়েবসাইট বা নতুন কোন তথ্যের সন্ধান পায়, এটি গুগলের সার্ভারে সংরক্ষণ করে রাখে। robots.txt হচ্ছে এমন একটি ফাইল যার মাধ্যমে একটি সাইটের নির্দিষ্ট কোন অংশকে ইন্ডেক্সিং করা থেকে সার্চ ইঞ্জিন তথা ক্রাউলারকে বিরত রাখা যায়। এই ফাইলটিকে সার্ভারের মূল ফোল্ডারের মধ্যে রাখতে হয়। একটি সাইটে এমন অনেক পৃষ্ঠা থাকতে পারে যা ব্যবহারকারী ও সার্চ ইঞ্জিন উভয়ের কাছে অপ্রয়োজনীয়, সেক্ষেত্রে এই ফাইলটি হচ্ছে একটি কার্যকরী সমাধান। গুগলের ওয়েবমাস্টার টুলস সাইট থেকে এই ফাইল তৈরি করা যায়।

 nofollow লিংক সম্পর্কে সতর্কতা:

গুগলবট একটি সাইটকে যখন ক্রাউলিং করতে থাকে তখন সেই সাইটে অন্য সাইটের লিংক পেলে তাতে ভিজিট করে এবং সেই সাইটকেও ক্রাউলিং করে। এক্ষেত্রে একটি সাইটের পেজরেংক (PR) এর উপর অন্য সাইটের পেজরেংকের প্রভাব পড়ে। HTML ট্যাগের <a> ট্যাগের মধ্যে “rel” এট্রিবিউটে “nofollow” দিয়ে রাখলে গুগল সেই লিংকে ভিজিট করা থেকে বিরত থাকে। nofollow লেখার নিয়ম হচ্ছে - <a href=”http://www.sitename.com” rel=”nofollow”>Site Name</a>। এটি মূলত বিভিন্ন ব্লগিং সাইটে পাঠকদের মন্তব্যে অবস্থিত লিংকে ব্যবহৃত হয়, যা স্প্যামার বা অনাকাঙ্খিত ভিজিটরদেরকে তাদের সাইটের পেজরেংক বাড়ানো প্রতিরোধ করে। এটি অযাচিত মন্তব্য প্রদানে স্প্যামারদেরকে নিরুৎসাহিত করে। তবে যেসকল ক্ষেত্রে স্প্যাম প্রতিরোধের ব্যবস্থা রয়েছে সেখানে nofollow ব্যবহার না করা ভাল এতে পাঠকরা মন্তব্য প্রদানে উৎসাহিত হবে এবং সাইটের সাথে তাদের যোগাযোগ আর বেশি হবে।

আয়ের উপায়:

SEO এর মাধ্যমে আয়ের বিভিন্ন উপায় রয়েছে। আপনি যদি নিজের সাইটের জন্য SEO করে থাকেন এবং এর মাধ্যমে সাইটে অধিক সংখ্যক ভিজিটর নিয়ে আসতে পারেন তাহলে নিঃসন্দেহে সাইটটি থেকে যেকোন ধরনের সার্ভিস বা পণ্য বিক্রি করতে পারবেন। অনেকে আবার বিজ্ঞাপন থেকে আয় করেন। ইন্টারনেটে বিজ্ঞাপন থেকে আয়ের সবচেয়ে জনপ্রিয় পদ্ধতি হচ্ছে Google Adsense এর মাধ্যমে। বিজ্ঞাপনের পাশাপাশি আউটসোর্সিং মার্কেটপ্লেসগুলোতেও SEO ভিত্তিক নানা কাজ পাওয়া যায়। কাজগুলোর মধ্যে রয়েছে কিওয়ার্ড রিসার্চ, ব্যাকলিংক জোগাড় করা, অন পেজ অপটিমাইজেশন, কন্টেন্ট লেখা, এসইও কনসালটেন্ট ইত্যাদি।

পরবর্তী পর্বে কিভাবে SEO ব্যবহার করবেন তা কথা  বলব।

বিশেষ সংযোজনঃ পরবর্তী পর্ব ( সার্চ ইন্জিন অপটিমাইজেশন পর্ব- ০৩) পরতে এই লিঙ্কে ক্লিক করুনঃ

সার্চ ইন্জিন অপটিমাইজেশন ( পর্ব- ০৩)

লেখাটি ভালো লাগলে আমাদের ফেসবুক পেজ এ লাইক করুনঃ https://www.facebook.com/comjagat

লেখাঃ সংগৃহীত

Level 0

আমি কমজগৎ। বিশ্বের সর্ববৃহৎ বিজ্ঞান ও প্রযুক্তির সৌশল নেটওয়ার্ক - টেকটিউনস এ আমি 14 বছর 10 মাস যাবৎ যুক্ত আছি। টেকটিউনস আমি এ পর্যন্ত 57 টি টিউন ও 17 টি টিউমেন্ট করেছি। টেকটিউনসে আমার 0 ফলোয়ার আছে এবং আমি টেকটিউনসে 0 টিউনারকে ফলো করি।

Computer Jagat has been involved with the ICT movement here in Bangladesh for more than a period of two decades. During this period we have been able to create a set of records for which we feel proud of.


টিউনস


আরও টিউনস


টিউনারের আরও টিউনস


টিউমেন্টস

ভাই আশা রাখবো এটা পুরাপুরি ভাবে শেষ করতে পারবেন। আমি SEO এর বেপারে অনেক শিখতে চাই।

Level 0

valo lagsa.a sopmorka pura guideline chai.

Level 0

Onek kichu jante parlam. Thanks.

http://studio89-bd.blogspot.com/