هایدی

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

هایدی

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

دانلود مقاله رتبه بندی صفحات یا پیج رنک (PageRank)

اختصاصی از هایدی دانلود مقاله رتبه بندی صفحات یا پیج رنک (PageRank) دانلود با لینک مستقیم و پر سرعت .

دانلود مقاله رتبه بندی صفحات یا پیج رنک (PageRank)


دانلود مقاله رتبه بندی صفحات یا پیج رنک (PageRank)

رتبه بندی صفحات یا پیج رنک (PageRank)

مقاله ای مفید و کامل

 

 

 

لینک پرداخت و دانلود *پایین مطلب* 

فرمت فایل:Word (قابل ویرایش و آماده پرینت)

تعداد صفحه:23

چکیده:

در این سری مقالات سعی بر اینست که بطور کلی و تخصصی  راجع به الگوریتم پی آر گوگل و اهمیت آن از لحاظ بهینه سازی و بازاریابی موتورهای جستجو صحبت کنیم و تکنیک های لازم جهت بهبود سایتها را در اختیار خوانندگان قرار دهیم.

پی آر یک متغیر عددی است که نشان می دهد یک سایت در دنیای اینترنت از چه اهمیتی برخوردار است. گوگل این اهمیت را از طریق لینک ها تشخیص می دهد و وقتی یک سایت به سایت دیگری لینک می شود، از لحاظ گوگل  بدین معنی است که آن سایت یک رای به سایت دیگر داده است. هرگاه رای های زیادی از طریق سایتهای دیگر به یک سایت می رسد این بدین معنی است که آن سایت از اهمیت بالاتری برخوردار است. همچنین سایت رای دهنده اهمیت رایش به اهمیت خودش بستگی دارد بدین معنی که هرچه اهمیت بالاتری داشته باشد ، رای های آن نیز پر اهمیت تر است. گوگل اهمیت صفحات وب را از روی همین رای ها و اهمیت آنها حساب می کند.

پی آر روشی است که گوگل به واسطه آن اهمیت صفحات وب را تا یین میکند. این امر از این لحاظ برای گوگل مهم است زیرا که بواسطه این اهمیتو رای ، گوگل رتبه بندی صفحات وب را تایین میکند و صفحه ای که رتبه پی آر بالاتری دارد از صفحه همتای خود رتبه بالاتری خواهد داشت و این به خاطر پی آر است. در حالی که این تنها فاکتور رتبه بندی نیست ولی جزو فاکتورهای مهم موتور جستجوی گوگل است و اخیرا تمام موتورهای جستجو به نوعی از این فاکتور پراکندگی برای رتبه بندی های خود استفاده می کنند.

در اینجا باید خاطر نشان کنم که همه لینکهایی که به یک سایت بر میگردد، توسط گوگل به حساب نمی آید و فقط تعداد محدودی از آنها را به شمار می آورد. در حال حاضر گوگل اکثر لینکهایی را که از مزرعه لینکهای شناخته شده می آید فیلتر می کند. مزرعه لینکها سایتهایی هستند که فقط لینک در خود نگه داری می کنند و خاصیت مثبتی در اینترنت ندارند و چون این عمل ماهیت اهمیت سایتها را برهم می زند ، گوگل آنها را فیلتر می کند. بعضی از این لینکها حتی می تواند منجر به جریمه شدن سایت شما در گوگل شود. گوگل می داند که صاحبان سایت نمی توانند لینکهایی را که به آنها می شود کنترل کنند ولی می توانند اینکه به چه سایتی لینک شوند را کنترل کنند ، پس خیلی دقت کنید به چه سایتهایی لینک می دهید.

رتبه بندی صفحات یا پیج رنک قسمت دوم

 


پیج رنک چگونه محاسبه می شود ؟

برای محاسبه پی آر یک صفحه ، تمامی لینکهایی که به آن صفحه بر میگردند مورد محاسبه قرار می گیرند. و این هم لینکهایی که از داخل سایت به آن متصل میشوند را در بر می گیرد و هم لینکهای خارجی.
PR(A) = (1-d) + d(PR(t1)/C(t1) + ... + PR(tn)/C(tn))
این تساوی است که طی آن پی آر یک صفحه محاسبه می شود. این الگوریتم پی آر است که هنگام راه اندازی ابتدایی  پی آر انتشار یافت. و احتمال اینکه گوگل نیز از مشابه همین فرمول استفاده کند وجود دارد ولی آنها راجع به الگوریتم هایشان صحبتی نمی کنند و ما اطلاع دقیقی از آن نداریم ولی این مسئله مهمی نیست زیرا که این الگوریتم  به اندازه کافی خوب می باشد.
در این تساوی 't1 - tn' صفحاتی هستند که به صفحه A لینک شده اند و ‘C’ تعداد لینکهای بیرونی که یک صفحه دارد و در نهایت ‘d’ فاکتور اشباع شدن است که معمولا آنرا 0.85 در نظر می گیریم.

اگر بخواهیم بطور ساده آنرا بررسی کنیم می توان به صورت زیر آنرا بررسی کرد ؛
پی آر = 0.15 + 0.85 * ( سهمی از پی آر هر سایتی که به آن متصل می شود )
"سهم" ؛ پی آر صفحه لینک شونده تقسیم بر تعداد لینکهای خروجی بروی آن صفحه !
جالب است نه ؟ در واقع هر صفحه با لینکی که به صفحات دیگر می دهد ، به آنها رای می دهد و مقدار این پی آر کمی کمتر از مقدار پی آر خود آن صفحه است (مقدار پی آر خود صفحه * 0.85 ). این مقدارتقریبا بطور مساوی بین تمامی صفحاتی که به آنها لینک شده است ، تقسیم می شود.

از این فرمول اینگونه بدست می آید که یک لینک از یک سایت با پی آر 4 و 5 لینک خروجی با ارزش تر از گرفتن لینک از یک سایت با پی آر 8 و 100 لینک خروجی است. پی آر صفحه ای که از آن لینک می گیرید مهم است ولی به همان اندازه تعداد لینکهای خروجی آن صفحه نیز مهم است. هر چقدر تعداد لینکها در صفحه لینک دهنده بیشتر باشد ، پی آر کمتری به صفحات لینک شده تعلق می گیرد.

اگر تفاوت بین پی آر های 1 تا 10 ثابت و مساوی بود ، فرض بالا قوت بیشتری می داشت اما بسیاری بر این عقیده هستند که مقادیر بین پی آر های 1 تا 10 بصورت لگاریتمی تغییر می کنند و دلایل قانع کننده ای برای باور کردن این تصاعد لگاریتمی  وجود دارد. هیچ کس خارج از گوگل نمی داند که گوگل از چه الگوریتمی برای پی آر استفاده می کند ولی احتمال استفاده گوگل از مقیاس لگاریتمی و یا مشابه آن زیاد است. با توجه به این مطلب ، بدست می آید که پی آر بسیار بیشتری در مقایسه با پی آر لازم  برای پی آری که بدست آمده  لازم است تا از یک پی آر به پی آر بعدی برسیم. نتیجه این می شود که فرض قبلی می شود ، پس یک لینک از سایتی با پی آر 8 که لینکهای خروجی زیادی دارد باارزش تر از صفحه ای با پی آر 4 و لینکهای خروجی کمتر خواهد بود.

هر کدام از این الگوریتمها را که گوگل استفاده کند ، ما می توانیم  از یک چیز مطمئن باشیم. لینک هایی که از سایتهای دیگر می آیند باعث افزایش پی آر سایت ما می شوند. فقط در خاط داشته باشید که باید از قرار دادن لینکهای خود در مزرعه های لینکها و سایتهایی که لینک جمع می کنند و خاصیت دیگری ندارند خودداری کنید.

در نظر داشته باشید که اگر صفحه ای لینک به صفحه دیگری بدهد ، پی آر خودش کم نمی شود و چیزی از دست نمی دهد بلکه فقط رای می دهد. پس دادن رای ، جابجا شدن پی آر نیست ، بلکه بطور ساده فقط دادن یک رای است که قوت آن به مقدار پی آر آن صفحه بستگی دارد. این مسئله مانند مجمع سهام داران است. وقتی سهام داران جمع می شوند و هر کس به ازای درصد سهمش رای می دهد ، از تعداد سهامشان کم نمی شود و این قضیه کاملا مشابه است. با این حال ، صفحات گاهی تحت شرایطی بطور غیر مستقیم ، پی آر از دست می دهند که جلوتر راجع به آن صحبت می کنیم.

خوب اکنون به نحوه انجام شدن محاسبات می پردازیم.
برای محاسبه یک صفحه ، ابتدا پی آر آن ، اگر پی آری داشته باشد ، کاملا کنار گذاشته می شود و یک محاسبه کاملا جدید که فقط بر پایه لینکها و رای هایی که پس از آخرین محاسبه پی آر به آن داده شده و ممکن است تغییر کرده باشد انجام می شود. ولی آنچه در این ابتدا مشخص نیست اینست که این کار انجام شدنی نیست اگر این محاسبات یکبار انجام شوند. توضیح بیشتر آنکه فرض کنید ما دو صفحه آ و ب داشته باشیم که به یکدیگر نیز لینک شده باشند و هیچ لینک دیگری در این دو وجود نداشته باشد. آنچه اتفاق می افتد ، از قرار زیر است ؛

قدم اول ؛ محاسبه پی آر صفحه اول از مقدار لینکهای ورودی به آن
صفحه آ اکنون یک مقدار پی آر دارد. برای این محاسبه از لینک ورودی از صفحه ب استفاده شد ، اما صفحه ب یک لینک ورودی از صفحه آ دارد و پی آر جدید آن هنوز محاسبه نشده پس آنچه به عنوان پی آر برای صفحه آ بدست آماده بر اساس پی آر غیر دقیق صفحه ب است که در کل دقیق نمی باشد.

قدم دوم ؛ محاسبه پی آر صفحه ب با توجه به مقدار لینکهای ورودی
صفحه ب اکنون پی آر جدیدی دارد اما نمی تواند دقیق باشد زیرا که محاسباتی که به کار گرفته شده ، با استفاده از پی آر غیر دقیق صفحه آ است پس کل این دو محاسبه غیر دقیق است.

از آنجایی که ایندو محاسبه به یکدیگر وابسطه هستند ، ما نمی توانیم هیچکدام از این پی آر ها را بطور دقیق محاسبه کنیم تا زمانی که پی آر دقیق یکی را جلوتر از دیگری داشته باشیم. اما حالا که دو مقدار پی آر جدید خالص هرکدام را داریم ، آیا می توان دوباره این محاسبات را انجام داد تا جوب دقیق گرفت ؟ خیر

ما میتوانیم این محاسبات را مجدد انجام دهیم و نتایج دقیق تر نیز می شوند ولی ما همیشه جوابهای غیر دقیق را برای محاسبه های بعدی استفاده می کنیم پس نتایج ما همیشه غیر دقیق می باشند.

این مشکل با تکرار کردن بسیار محاسبات حل می شود. هر بار نتایج کمی دقیقتر از بارهای قبل می باشد اما دقت محض در این محاسبات وجود ندارد. 40 تا 50 بار محاسبه کافی است زیرا از آن به بعد نتایج تغییر چشم گیری نمی کنند. اینست آنچه گوگل در هر بار بروزرسانی انجام می دهد و دلیل طولانی بودن بروزرسانی های پی آر در گوگل می باشد که معمولا 70 روزمی باشد.

قانون پیج رنک توسط برین و پیج در گوگل

 


پیج رنک ( برین و پیج ، سال 1998 )
توضیح مفصل و باز کردن این الگوریتم را از دیدگاه بهینه سازی و مارکتینگ در اینجا مقتنم نمی دانم. ولی لازم است که در انجا راجع به پیج رنک صحبت کنیم چرا که نشان می دهد همیشه لازم نیست رتبه بندی بر اساس وزن لغات بکار رفته در متن باشد ، بلکه می تواند بر اساس وزن و ارزش لینکها و پیوندها نیز باشذ. اولین باری این الگوریتم ظاهر شد و دنیای بهینه سازس صفحات وب را عوض کرد ، با بهره گرفتن از طبیعت اجتماعی و متعحد وب و ساختار متصل لینکها توانست به دنیای وب بصورت یک وب واحد نگاه کرده و موقعیت هر صفحه تنها را ارزش گذاری کند. رتبه بندی صفحات که طی این قانون PR نام گرفته است از لحاظ عددی مقداریست بین صفر و یک که گوگل آنرا در نرم افزار خود ععدی بین یک تا ده نشان میدهد ، زیرا که تمامی لینکها در یک ماتریس جای داده می شود. حال آنچه مسلم است اینکه دنیای وب دیگر محیطی اجتماعی نیست و لینک دادن سایتی به سایت دیگر با هزاران حساب و کتاب انجام میشود و این به واسطه همین PR است که خود نابودی خود را در آینده رقم زده است.

قانون بردفرد

قانون بردفرد که در سال 1934پای به عرصه جستجو گزارد در مورد شواهدی از جستجو در پروندهای کتابخانه ای صحبت میکند که میتوان توسط آنها تعداد نتایج و پروندههای مرتبط را تخمین زد.

 برای روشن شدن بیشتر این نحوه یافتن و مرتب کردن پروندها ، مثالی میاوریم تا مطلب باز شود. برای مثال اگر شما 5 نتیجه دارید که برای شما از درجه اهمیت برخوردار است و در این 5 وب سایت 12 پرونده برای شما مهم است و مورد نظر شما در مطلب خاصی است. حال اگر شما بخواهید 12 پرونده یا صفحه دیگر را که مطلبی مرتبط داشته باشند بدست آورید ، شما باید 10 سایت را مطالعه و مورد بررسی قرار دهید.
پس نتیجه گیری میشود که در قانون بردفرد ما با یک ترکیب مضاعف کننده 5/10روبرو هستیم. هر بار که شما بخواهید 12 صفحه مرتبط دیگر داشته باشید باید 10 سایت دیگر وجود داشته باشد. پس این بصورت تساعدی بالا رفته و در نهایت به ارقام 5 ، 10، 20 ، ... میرسد.
البته در جستجو داخل نتایج موتور های جستجو ، کمتر پیش میآید کسی انقدر عمیق جستجو کند.

و...

NikoFile


دانلود با لینک مستقیم


دانلود مقاله رتبه بندی صفحات یا پیج رنک (PageRank)

پروژه خوشه بندی در شبکه های حسگر بی سیم

اختصاصی از هایدی پروژه خوشه بندی در شبکه های حسگر بی سیم دانلود با لینک مستقیم و پر سرعت .

پروژه خوشه بندی در شبکه های حسگر بی سیم


پروژه خوشه بندی در شبکه های حسگر بی سیم

نوع فایل:WORD

تعداد صفحه:80

نگارشگر:...

قابلیت ویرایش: دارد

 

 

 

چکیده 

پیشرفت های اخیر در ساخت مدارات مجتمع در اندازه های کوچک ، از یک سو و توسعه ی فناوری ارتباطات بی سیم از سوی دیگرزمینه ساز طراحی شبکه های حسگر بی سیم شده است.شبکه حسگر بی سیم ، شبکه ای متشکل از تعداد زیادی گره کوچک است که در هر گره تعدادی حسگر وجود دارد. 

شبکه ی حسگر به شدت با محیط فیزیکی اطراف خود تعامل دارد و از طریق حسگرها اطلاعات محیط را گرفته و در صورت نیاز پس از اعمال پردازشی ساده ، آن ها را ارسال می کند  .

ارتباط بین گره ها بصورت بی سیم برقرار می شود و هر کدام از آن ها بصورت مستقل و بدون دخالت انسان کار میکنند و معمولا از لحاظ فیزیکی بسیار کوچک می باشند و دارای محدودیت هایی در قدرت پردازش، ظرفیت حافظه، منبع تغذیه و ... می باشند.این محدودیت ها، مشکلاتی را بوجود آورده اند که منشاء بسیاری از مباحث پژوهشی در زمینه شبکه های حسگر بی سیم می باشند. 

این شبکه، از پشته پروتکلی شبکه های سنتی پیروی می کند، ولی بخاطر محدودیت ها و تفاوت های وابسته به کاربرد، پروتکل ها باید بازنویسی شوند. 

تفاوت اساسی این شبکه ها با شبکه های سنتی، ارتباط آن ها با محیط فیزیکی است بطوری که شبکه های سنتی، ارتباط بین انسان ها و پایگاه های اطلاعاتی را فراهم می کنند ولی شبکه های حسگر مستقیما با جهان فیزیکی در ارتباط هستند. 

نام شبکه های حسگر بی سیم یک نام عمومی الست برای انواع مختلف شبکه هایی که به منظورهای خاص طراحی می شوند.باید یادآوری کرد که برخلاف شبکه های سنتی که همه منظوره اند، شبکه های حسگر، تک منظوره می باشند...

 

فصل اول:

1- 1- مقدمه

1- 2-  ساختار کلی شبکه های حسگر بی سیم

1- 3- ساختمان گره 

1- 4- کاربردها 

1- 4-1- نمونه ای از کاربرد در کشاورزی

1- 4-2- نمونه ای از کاربرد برای مقاصد نظامی

1-4-3-ارتباطات شبکه

1-4-4-مصرف انرژی

1-4-5-جریان اطلاعات

1- 5- پشته پروتکلی

1- 6- شبکه های حسگر بی سیم در مقابل شبکه های موردی

1- 7-  اجزای نرم افزاری برای شبکه های حسگر بی سیم

1- 7- 1- سیستم عامل Tiny OS 

1- 8- نمونه پیاده سازی شده شبکه حسگر

فصل دوم:

2- 1-  پیشگفتار

2- 2-  مقدمه

2- 3- اهداف اصلی و چالشهای طراحی خوشهبندی در WSNها 

2- 4- دستهبندی الگوریتمهای خوشه بندی

2- 4-1- پارامترهای خوشهبندی

2- 4-2- طبقه بندی پروتکل های خوشه بندی

2- 5- رویکردهای خوشه بندی احتمالاتی.. 

2- 6- سلسله مراتب خوشه بندی تطبیق پذیر کم انرژی(80LEACH)

فصل سوم

3-1- شبکه های بیزین

3-1-2-  مزیت های شبکه های بیزین

3-1-3- چالش های موجود در شبکه های بیزین

3-1-4-  کاربرد مدل بیزین در کلاسترینگ نودهای شبکه های حسگر بی سیم

3-2- آتوماتای سلولی

3-2-2-  کاربردهای اتوماتای سلولی

3-2-3- اتوماتای سلولی یادگیر

3-2-3-1- مقدمه

3-2-3-2- آشنایی با اتوماتای سلولی یادگیر 

3-3- کلاسترینگ در اتوماتای یادگیر

3-4-نتایج شبیه سازی

3-5-کلاسترینگ در اتوماتای یادگیر سلولی

فصل چهارم: 

4- 1- بررسی الگوریتم خوشه بندی بر اساس انرژی کل شبکه و مقایسه با EECS

4- 2- بررسی الگوریتم خوشه بندی بر اساس ماشین سلولی یادگیر و مقایسه با EECS

4- 2-1- توضیح کامل چگونگی کار الگوریتم پیشنهادی

4- 3-  مدل شبکه در الگوریتم پیشنهادی

4- 4- برخی ویژگی های خاص الگوریتم

4- 5-  مدل رادیویی مورد استفاده

4- 6- خلاصه روش کار الگوریتم پیشنهادی

4- 7- فلوچارت انجام خوشه بندی در الگوریتم پیشنهادی

4- 8- جزئیات روش کار الگوریتم پیشنهادی

4-9- نتایج شبیه سازی

4-10- تعداد نودهای زنده

4-11- سطح انرژی

منابع فارسی

منابع انگلیسی

 


دانلود با لینک مستقیم


پروژه خوشه بندی در شبکه های حسگر بی سیم

کد متلب طبقه بندی چند کلاسه svm

اختصاصی از هایدی کد متلب طبقه بندی چند کلاسه svm دانلود با لینک مستقیم و پر سرعت .

این کد به صورت کاملا واضع به زبان متلب می باشد که برای اجرا فقط کافی است تابع مورد نظر با ویژگی های ورودی و لیبل مورد نظر آموزش داده شود.


دانلود با لینک مستقیم


کد متلب طبقه بندی چند کلاسه svm

پایان نامه کارشناسی نرم افزار تقسیم بندی صفحات وب

اختصاصی از هایدی پایان نامه کارشناسی نرم افزار تقسیم بندی صفحات وب دانلود با لینک مستقیم و پر سرعت .

پایان نامه کارشناسی نرم افزار تقسیم بندی صفحات وب


پایان نامه کارشناسی نرم افزار تقسیم بندی صفحات وب

پایان نامه کارشناسی نرم افزار تقسیم بندی صفحات وب

دانلود متن کامل این پایان نامه با فرمت ورد word


چکیده

همانطور که می دانیم مجموع اطلاعات در دسترس روی وب بسیار زیاد می باشد و هر ساله شاهد روندرو به رشد تصاعدی در مقدار اطلاعات روی صفحات وب می باشیم. در حقیقت ،وب یک انبار بزرگ اطلاعات است و با یک بررسی اجمالی در میابیم که شمارش صفحات قابل دسترس در وب در حدود یک میلیارد صفحه می باشد وچیزی در حدود یک و نیم میلیون صفحه نیز به طور روزانه اضافه می شوند. به عنوان مثال در حال حاضر سایت گوگل بیشتر از 2/4 میلیارد صفحه را جستجو می کند. این مقدار هنگفت اطلاعات به اضافه طبیعت فعل و انفعالی و پر محتوای وب آنرا بسیار پر طرفدار کرده است . به علاوه سازماندهی این صفحات امکان جستجوی آسان را نمی دهد.

بنابراین با توجه به رشد سریع وب گسترده جهانی ( www ) بطوردائم نیازمند فراهم کردن یک روش خودکار برای کار بران تقسیم بندی و طبقه بندی صفحات وب می باشیم. در بخش نتیجه یک قاعده ، نتیجه ، دسته ای از پیش بینی های یک قانون است که پیش بینی کننده آنها را ثبت کرده است.به عنوان مثال این موضوع می تواند یک قانون باشد که:

If <salary=high> and <mortgage=no> then <good credit>                

اگر شما حقوق بالایی داشته باشید و هیچ رهن و قرضی هم نداشته باشید پس اعتبار بالایی دارید. این نوع ارایه اطلاعات نتایج جامع و کلی برای کاربر دارند. زیرا هدف عمومی نگهداری اطلاعات کشف و دستیابی به اطلاعات دقیق نیست بلکه ارایه اطلاعات عمومی و جامع به کاربران است. در پروسه دسته بندی اهداف کشف قوانین از یک مجموعه اطلاعات پایه و آموزشی و بکار بردن این قوانین در یک مجموعه اطلاعات آزمایشی ( که در اطلاعات پایه دیده نشده ) و ارایه یک پیش بینی قابل قبول از دسته مجموعه آزمایشی است. در این پروژه هدف کشف یک مجموعه خوب از قواعد دسته بندی برای طبقه بندی صفحات وب بر اساس موضوع آنهاست.

هدف این پروژه تقسیم بندی صفحات وب به منظور آسان سازی کار سرویس های جستجوی آینده می باشد وبنابراین توانایی استخراج کردن اطلاعات خاص از میان انبوه صفحات وب به اندازه خود صفحات وب مهم می باشد.بنابراین روش های مؤثر و صحیح برای طبقه بندی این حجم عظیم اطلاعات ضروری است.

این پروژه با تحقیق و بررسی فراوان در سه فصل گرد آوری شده و به توصیف و کشف قوانین مختلف تقسیم بندی و قیاس آنها با یکدیگر می پردازد و در نهایت به معرفی کاراترین روش و ارائه پیشنهادات و راهکارهای اصلاحی می پردازد.در نهایت مطالبی که در این پروژه ارائه می شود همگی بر پایه ی قوانین تقسیم بندی است .

 فصل اول

معرفی نامه

 در این فصل به اختصار به معرفی فصول مختلف می پردازیم و با بیان اهداف کلی هر فصل مروری اجمالی بر کل مطالب پایان نامه خواهیم داشت:

 معرفی فصل دوم پایان نامه:

  • روش های مختلف تقسیم بندی صفحات وب

در این بخش همانگونه که از عنوان آن پیداست به معرفی و مقایسه ی روش های متفاوت تقسیم بندی می پردازیم.این بخش شامل سه قسمت مجزاست که در هر قسمت هر یک از این روش ها به تفصیل مورد بحث قرار گرفته اند:

 1-1-1- تقسیم بندی صفحات وب بطور مختصر

با رشد سریع جهان پهنه ی گسترده ی وب نیاز فزاینده ای به فعالیت های گسترده در جهت کمک به کاربران صفحات وب برای طبقه بندی و دسته بندی این صفحات وجود دارد . این قبیل کمک ها که در سازمان دهی مقادیر زیاد اطلاعات که با سیستم های جستجو در ارتباط هستند و یا تشکیل کاتالوگ هایی که تشکیلات وب را سامان دهی می کنند ، بسیار مفید هستند.از نمونه های اخیر آن می توان یاهو و فرهنگ لغت looksmart (http://www.looksmart.com) که دارای کاربران زیادی هستند را نام برد.

شواهد نشان می دهد که طبقه بندی نقش مهمی را در آینده سیستم های جستجو بازی می کند. تحقیقات انجام شده نشان می دهد که کاربران ترجیح می دهند برای جستجو ، از کاتولوگ های از پیش دسته بندی شده استفاده کنند . از طرفی رسیدن به این قبیل نیاز های اساسی بدون تکنیک های خودکار دسته بندی صفحات وب و تحت ویرایش دستی و طبیعی توسط انسان بسیار مشکل است . زیرا با افزایش حجم اطلاعات طبقه بندی دستی بسیار وقتگیر و دشوار است.

   در نگاه اول ، دسته بندی صفحات وب را می توان از برنامه های اداری دسته بندی متون مقتبس نمود.اگر بخواهیم در یک آزمایش ملموس تر به نتایج دقیق برسیم، راه حل مساله بسیار دشوار خواهد شد.صفحات وب ساختار اصلی و اساسی خود را در قالب زبان HTML قرار می دهند که آنها شامل محتویات پر سروصدا مانند تیترهای تبلیغاتی و یا هدایت گرهای راهنما و غیر متنی هستند.اگز روش های خاص طبقه بندی ویژه متون برای این صفحات بکار گرفته شود چون متمایل به یک الگوریتم خاص دسته بندی متون است ، گمراه شده و باعث از دست رفتن تمرکز بر موضوعات اصلی و محتویات مهم می شود.زیرا این محتویات فقط شامل متن نیست.

   پس وظیفه و هدف مهم ما طراحی یک کاوشگر هوشمند برای جستجوی مطالب مهم صفحات وب است که هم شامل اطلاعات متنی و هم سایر اطلاعات مهم باشد.در این مقاله ما نشان می دهیم که تکنیک های خلاصه سازی صفحات وب برای جستجوگر ها دسته بندی صفحات وب ، تکنیکی کاربردی و بسیار مفید است. ما همچنین نشان می دهیم که به جای استفاده از تکنیک های خلاصه سازی در فضای وب که عمدتا برای متون طراحی شده ، می توان از برنامه ها و تکنیک های خاص خلاصه سازی صفحات وب استفاده کرد. به منظور جمع آوری شواهد قابل ملموسی که نشان دهیم تکنیک های خلاصه سازی در صفحات وب سودمند هستند، ما ابتدا یک آزمایش موردی ایده آل را بررسی می کنیم که در آن هر صفحه وب ، با خلا صه این صفحه، که توسط انسان خلاصه شده جابجا شده است.پس از انجام این آزمایش در می یابیم که در مقایسه با استفاه از متن کامل صفحه وب ، حالت خلاصه شده رشد چشمگیر 14.8 درصدی داشته است که پیشرفت قابل ملاحظه ای شمرده می شود.به علاوه در این مقاله ما یک تکنیک جدید خلاصه سازی صفحات وب را پیشنهاد می کنیم که این روش موضوعات اصلی صفحات وب را با روش آنالیز لایه ای صفحات برای بالا بردن دقت دسته بندی استخراج می کند.

     سپس عملیات دسته بندی را به همراه الگوریتم اجرای آن ارزیابی می کنیم و آن را با روش های سنتی دسته بندی خودکار متون که شامل روش های نظارتی و غیر نظارتی می باشد مقایسه می کنیم.در آخر ما نشان می دهیم که یک اسمبل از روش خلاصه سازی حدود 12.9 درصد پیشرفت را می تواند حاصل کند که این عدد بسیار نزدیک به حدود بالایی است که ما در آزمایش ایده آل خود به آن دست یافتیم.

   نتیجه کلی این مقاله این است که جستجو گر هایی که فقط برای متون طراحی شده اند در حالت کلی گزینه مناسبی برای جستجو در فضای وب نیستند و ما نیاز به برنامه هاو جستجو گر هایی داریم که صفحات وب را در لایه های مختلف و همچنین سطوح متفاوت بررسی و جستجو کنند. لذا استفاده از مدل هایی که روش های خلاصه سازی و دسته بندی را بادقت بیشتری انجام می دهند، سرعت و دقت جستجو را افزایش خواهد داد.

 1-1-2- تقسیم یندی صفحات وب با استفاده از الگوریتم اجتماع مورچه ها

در این بخش هدف کشف کردن یک مجموعه خوب قوانین تقسیم بندی به منظور رده بندی کردن صفحات وب بر اساس موضوعات آنهاست. الگوریتم استفاده شده در این فصل الگوریتم اجتماع مورچه( اولین الگوریتم بهینه سازی اجتماع مورچه) برای کشف قوانین تقسیم بندی در زمینه ی استخراج مضامین وب می باشد. همچنین مزایا و معایب چندین تکنیک پیش پردازش متنی بر اساس زبان شناسی را به منظور کاهش مقدار زیادی از علائم و نشان های به هم پیو سته با استفاده از استخراج مضامین وب بررسی می کند.

نگهداری صفحات وب بسیار چالش پذیر تر است.زیرا شامل متون غیر سازمان یافته و یا نیمه سازمان یافته بسیاری در صفحات وب یافت می شود. به علاوه تعداد زیادی از لغات و خصوصیات در رابطه با صفحات وب بالقوه موجود است . و یک تحلیل تئوری از     الگوریتم مورچه (تحت یک نگاه بدبینانه) نشان می دهد که زمان محاسباتی شدیدا به مقدار توصیفات و خصوصیات حساس است . پس استنباط اینکه این الگوریتم در رابطه با مجموعه داه هایی که در عمل خصوصیت های زیادی دارند و همچنین در چالش با دنیای وب و نگهداری وب ها چگونه مقیاس بندی می کند ، از اهمیت فراوانی برخوردار است.

   در آخر تحقیق در مورد اینکه تکنیک های مختلف جستجوی متون که توصیفات و خصوصیات آنها رو به افزایش است ، چه تاثیری بر عملکرد الگوریتم خواهد گذاشت دارای اهمیت می باشد.

   نتیجه کلی این مقاله این است که باافزایش اطلاعات صفحات وب جهت سهولت در برداشت و جستجو نیازمند دسته بندی و طبقه بندی آنها هستیم.برای دسته بندی نیاز به یک الگوی مناسب وجود دارد که این انتخاب الگو نیز به نوبه خود نیازمند قواعد کلی و مناسب ا ست.قواعد شامل مقدمه ها و نتایج هستند که مارا در جهت ایجاد الگوی مناسب برای دسته بندی یاری می دهند.

   هدف ما دسته بندی اطلاعات بر حسب موضوع است که نباید به صورت جزئی و خاص این مهم را انجام داد ، بلکه دسته بندی مناسب و معقول باید عمومی ، مفید و جامعه نگر باشد.

 متن کامل را می توانید دانلود نمائید چون فقط تکه هایی از متن پایان نامه در این صفحه درج شده (به طور نمونه)

ولی در فایل دانلودی متن کامل پایان نامه

همراه با تمام ضمائم (پیوست ها) با فرمت ورد word که قابل ویرایش و کپی کردن می باشند

موجود است


دانلود با لینک مستقیم


پایان نامه کارشناسی نرم افزار تقسیم بندی صفحات وب