هایدی

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

هایدی

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

فشردهسازی فایلهای تصویری

اختصاصی از هایدی فشردهسازی فایلهای تصویری دانلود با لینک مستقیم و پر سرعت .

لینک دانلود و خرید پایین توضیحات

فرمت فایل word  و قابل ویرایش و پرینت

تعداد صفحات: 15

 

فشرده‌سازی فایل‌های تصویری

 

فشرده‌سازی (Compression)، پردازشی است که با حذف اطلاعات اضافی، داده‌ها را به علایم دیجیتالی کاهش می‌دهد.

فشرده‌سازی (Compression)، پردازشی است که با حذف اطلاعات اضافی، داده‌ها را به علایم دیجیتالی کاهش می‌دهد. این پردازش بسته به پهنای باند مورد نیاز برای انتقال داده‌ها و میزان فضای ذخیره‌سازی، آن را کاهش می‌دهد. اطلاعات دیجیتالی را می‌توان در هر نوعی که باشد، فشرده کرد. کاهش پهنای باند مورد نیاز امکان انتقال داده‌های بیشتری را در یک زمان واحد می‌دهد. فشرده‌سازی را می‌توان به دو گروه تقسیم کرد. با فقدان (با زیان) و بدون فقدان (بدون زیان). در فشرده‌سازی بدون فقدان، تصویر ذخیره شده بدون از دست دادن کمتیرن داده‌ای، خود تصویر است، اما در فشرده‌سازی یا زیان، تصویر ذخیره‌‌شده خود تصویر اصلی نیست، بلکه شبیه آن است و اطلاعاتی را از دست داده است.

● فشرده‌سازی بدون زیان فشرده‌سازی بدون زیان با استقرار کامل و دوباره همه داده‌های اصلی که در تصویر اصلی وجود داشت، مشخص می‌شود. فشرده‌سازی یک سند، فشرده‌سازی بدون زیانی است که سند ذخیره‌شده باید درست همانند سند اولیه باشد، نه شبیه به آن. در دنیای بصری، فشرده‌سازی بدون زیان خود را در اختیار تصویرهائی که بخش زیادی از آنها یک رگ خاص دارد، مثل آسمان آبی، تصویرهای ساخته شده توسط کامپیوتر و محدوده‌هائی که تها با یک رنگ خاص پر شده‌اند و نکات قابل‌توجهی دربرندارند. مثل کارتون‌ها، گرافیک‌ها و انیمیشن سه‌بعدی هم از انواع فشرده‌سازی بدون زیان هستند. یکی از انواع پر کاربرد و معمول در فشرده‌سازی بدون زیان کدگذاری مبتنی بر طول است که در گرافیک‌ها و تصویرهای ساخته شده با کامپیوتر استفاده می‌شود. این تصویرها بخش‌های وسیعی دارند که با رنگشان ثابت بوده و یا الگوهای یکسانی در آنها چندین بار تکرار شده است. در تصویرهای دیجیتالی، هر پیکسل از سه رنگ ترکیبی قرمز، سبز و آبی تشکیل شده و هر یک از این پیکسل‌ها ارزش خاصی برای هرکدام از رنگ‌ها دارد. بنابراین سه بایت اطلاعات برای هر یک از رنگ‌ها وجود دارد که در کنار هم معرف یک پیکسل است. کدگذاری مبتنی بر طول برخلاف ارزش‌های RGB برای هر پیکسل، خطوط اسکن را گروه‌بندی و طول‌بندی می‌کند. به‌گونه‌ای که برای پیکسل‌ها شناخته شده باشد. برای مثال، ممکن است بخشی از یک خط ویدیوئی، ردیفی ۲۵تائی از پیکسل‌های سیاه داشته باشد. این بخش طولی است که به صورت ۰ و ۰ و ۰ و ۲۵ کدگذاری شده است. این یعنی ۲۵ پیکسل وجود دارند که هر کدام از یک‌چهارم R، یک‌چهارم G و یک‌چهارم B یا سیاه تشکیل شده‌اند. تصویر اصلی از ۷۵ بابت تشکیل شده که(۵۲ پیکسل سه بایتی) برای حفظ و نگهداری اطلاعات است. زمانی که از کدگذاری مبتنی بر طول برای فشرده‌سازی استفاده می‌کنید، می‌توانید اطلاعات موردنظر را در چهار بایت ذخیره کنید. ● فشرده‌سازی با زیان تصویرهای ویدیوئی که با دوربین گرفته می‌شوند، به‌طور معمول برای تکنیک‌های فشرده‌سازی بدون زیان مناسب نیستند، چرا که به‌ندرت پیش می‌آید که طول آنها برای ارزشگذاری‌های پیکسل‌ها مناسب باشد و بتوان میزان کارآئی تصویر را با بهره‌گیری از این تکنیک‌ها بالا برد. فشرده‌سازی ویدیوهای متحرک به‌طور معمول زیرمجموعه‌ای از فشرده‌سازی با زیان است. به کمک این روش، تصویر ذخیره شده مانند تصویر اصلی خواهد بود. زمانی‌که تصویر با زیان دوبره تولید می‌شود و یا از حالت فشرده بیرون می‌آید. اطلاعاتی که در زمان فشرده‌سازی وجود داشت، به‌طور کامل حفظ نخواهد شد. فشرده‌سازی با زیان برای اینکه بتواند عدم وجود اطلاعات را مخفی کند، اطلاعات موجود در مکان‌هائی را که چشم انسان به آن کمتر حساس است با سبب انتقاد کمتری از تصویر می‌شود، حذف می‌کند. چشم انسان به تغییرات درجات روشنائی و نور، بیش از تغییرات رنگ )چه ظاهری و چه از نظر غنی‌سازی( حساس است. در گسترده رنگ‌ها، چشم انسان بیشتر به محدوده‌های زرد، سبز و آبی حساس است. چشم انسان همچنین به اشیاء متحرک حساس‌تر از اشیاء ساکن است. برای مثال خرگوش زمانی‌که می‌خواهد شکار کند ساکن و بدون حرکت می‌ایستد. چرا که به‌طور غریزی می‌داند چشم حیوانات دیگر به آنچه که حرکت می‌کند، حساس‌ترند تا آنچه که بی‌تحرک است. بنابراین اگر ساکن و بی‌تحرک باشد، امکان دید آنها را کمتر می‌کند. در فشرده‌سازی با زیان، اطلاعاتی حذف می‌شوند که چشم انسان به آنها حساس نباشد یا حرکت چندانی نداشته باشند. در نمونه کارآمد فشرده‌سازی با زیان JPEG و MPEG است که هر یک از آنها را در زیر توضیح می‌دهیم. ● فشرده‌سازی JPEG فشرده‌سازی JPEG توسط Joint Photographic Experts Group گسترش یافت که استاندارهائی برای فشرده‌سازی تصویرهای ساکن مانند عکس و گرافیک دارد. در فشرده‌سازی JPEG، داده‌های تصویر به دو بخش روشنائی و اطلاعات رنگدانه‌ای تقسیم می‌شوند. JPEG از مزیت حساسیت بیشتر چشم انسان به تغییرات روشنائی نسبت به تغییرات رنگ استفاده کرده و نسبت به روشنائی موجود در تصویرها نمونه‌


دانلود با لینک مستقیم


فشردهسازی فایلهای تصویری

لینوکس

اختصاصی از هایدی لینوکس دانلود با لینک مستقیم و پر سرعت .

لینک دانلود و خرید پایین توضیحات

فرمت فایل word  و قابل ویرایش و پرینت

تعداد صفحات: 15

 

تقدیم به پدر و مادر عزیزم

که با لطف و مهر مرا یاری کرده اند

مقدمه :

حمد و سپاس ایزد منان را که با الطاف بیکران خود این توفیق را به ما ارزانی داشت تا بتوانیم در راه ارتقای دانش عمومی و فرهنگ و به ویژه علوم کامپیوتر و انفورماتیک گامهایی هرچند کوچک برداریم.

امروزه گستردگی علوم و توسعه روزافزون آن شرایطی را به وجود آورده که هر روز شاهد تحولات اساسی و چشمگیر در سطح جهان هستیم. این مطلب را با مقدمه ای در مورد سیستم عامل شدن لینوکس آغاز می کنیم. درباره ی توسعه گذشته و آینده ی لینوکس صحبت خواهیم کرد و نگاهی دقیق به مزایا و معایب آن می پردازیم. در مورد توزیعات مختلف و همچنین سورس آزاد صحبت خواهیم کرد. این نوشته به سؤالاتی از این قبیل پاسخ می دهد:

1ـ لینوکس چیست؟

2ـ لینوکس کجا و چگونه آغاز شد؟

3ـ آیا لینوکس همان سیستم عاملی است که در آن همه چیز در حالت متنی انجام می شود؟

4ـ آیا لینوکس آیندة درخشانی دارد؟

5ـ مزایای لینوکس چیست؟ معایت آن چیست؟

6ـ چند نوع لینوکس وجود دارد؟

7ـ جنبشهای opensource و GNU چیست؟

1ـ1ـ تاریخچه :

1ـ1ـ1ـ یونیکس :

برای درک عمومیت و محبوبیت لینوکس، باید حدود 30 سال به عقب برگردیم … تصور کنید که رایانه ها به بزرگی خانه ها یا حتی استادیوم ها هستند. زمانی که اندازة رایانه ها به خودی خود مشکلات فراوانی را پدید می آورد، معضل دیگری وجود داشت که مشکل را حادتر می کرد: هر رایانه سیستم عامل متفاوتی داشت و نرم افزارها تنها برای برآورده کردن یک هدف خاص ایجاد می شدند.

برنامه هایی که به یک رایانه داده می شد، روی سیستم مشکل آفرین بود. رایانه ها بسیار گران بودند و تازه پس از خریدن آن باید تلاش زیادی می شد تا به کاربران نحوه کار کردن با آن آموزش داده شود. در نتیجه هزینه نهایی بسیار بالا بود.

جهان از نظر فناوری آن قدر پیشرفته نبود تا رایانه های کوچکتر بسازد، بنابراین باید برای یک دهه دیگر آن اندازه ها را تحمل می کرد. در سال 1969 یک گروه از برنامه نویسان در آزمایشگاههای بل (Bell Labs) به فکر پیاده کردن راه حلی برای این مشکل افتادند تا بتوانند سازگاری نرم افزارها را سر و سامان بدهند.

آنها سیستم عاملی ایجاد کردند که:

1ـ ساده و جذاب بود.

2ـ با زبان برنامه نویسی C نوشته شده بود. (به جای اسمبلی)

3ـ قادر به بازیابی کُدها بود.

توسعه دهندگان نام این پروژه را unix نهادند.

قابلیت بازیابی کُد بسیار مهم بود. تا آن زمان، تمام رایانه های تجاری موجود با کُدی نوشته شده بود که اختصاصاً برای آن سیستم توسعه داده شده بود.

از این جهت یونیکس تنها به مقدار کمی از این کُدها نیاز داشت که امروزه عموماً به هسته (kernel) معروف است.

برای پایه ریزی یونیکس در هر سیستم، تنها به این مجموعه از کُدها نیاز بود. سیستم عامل و دیگر دستورات با استفاده از زبان سطح بالای C در این هسته ساخته شده بودند. این زبان انحصاراً برای توسعه یونیکس ایجاد شده بود. با استفاده از این تکنیک جدید، توسعه سیستم عاملی که بتواند بر روی سخت افزارهای مختلف اجرا شود، بسیار ساده تر بود. تولیدکنندگان نرم افزار به سرعت یونیکس را پذیرفتند. زیرا می توانستند با زحمت کمتر، ده برابر فروش بیشتر داشته باشند. وضعیت خارق العاده ای به وجود آمده بود. تصور کنید یارانه هایی از شرکت های مختلف در یک شبکه به هم متصل شده بودند یا کاربران بدون نیاز به آموزش اضافی، بر روی سیستم های مختلفی کار می کنند یونیکس نقش بزرگی در سازگار کردن کاربران با سیستم های مختلف ایفا کرد. طی دهه های بعد توسعه یونیکس ادامه یافت. امکان انجام کارهای بیشتر فراهم شد. سازندگان نرم افزار و سخت افزار بیشتری پشتیبانی یونیکس را به محصولات خود افزودند. یونیکس در ابتدا فقط بر روی محیط های بزرگ مانند Main Frame ها و Mini Computer ها پیدا می شد. (توجه داشته باشید که رایانه های شخصی Micro Computer ها هستند.) شما باید در یک دانشگاه و یا یک دولت و سازمان بزرگ اقتصادی کار می کردید تا بتوانید یونیکس را ببینید. اما رایانه های کوچکتر در حال توسعه بودند و تا پایان دهة 80 تعداد زیادی از مردم از رایانه های خانگی استفاده می کردند. در آن زمان نسخه های مختلفی از یونیکس برای کامپیوترهای شخصی به وجود آمده بود، اما هیچ یک واقعاً رایگان نبود.

6ـ6ـ2ـ لینوس و لینوکس :

لینوکس توروالدز، مرد جوانی که در رشته علوم رایانه دانشگاه هلسینکی تحصیل می کرد، به این فکر افتاد که ایجاد نسخه ای دانشگاهی و رایگان از یونیکس ایدة بسیار خوبی خواهد بود. او خود شروع به کُدنویسی کرد:

(From:tor vabls @ klaava. Helsinki. FI (Linus Bendict torvalds)

Nems groups: Comp. OS. Minix

Subject:GCC – 7.40 and posix – question

< message – ID: < 1997 Jul 307 7000 50. 9886 @ kalaava

Data: 3 Jul 97 70: 00: 50 GMT

Helli net landers

Due to a project I’m working on (minix)

I’m instered in the posix standard definition.

Please point mi to a (preferably) machine – readable

format of the latest posix rules? Ftp – sites wouldbenice.

او پرس و جو را در مورد چگونگی بکارگیری یونیکس در رایانه ی شخصی اش آغاز کرد. از ابتدا هدف لینوکس، توسعه یک سیستم عامل کاملاً رایثگان و سازگار با یونیکس اصلی بود. و این دلیل پرسش او در مورد استانداردهای posix است. posix همچنین استاندارد یونیکس است.


دانلود با لینک مستقیم


لینوکس

ترمودینامیک

اختصاصی از هایدی ترمودینامیک دانلود با لینک مستقیم و پر سرعت .

لینک دانلود و خرید پایین توضیحات

فرمت فایل word  و قابل ویرایش و پرینت

تعداد صفحات: 27

 

مقدمه :

اساسی ترین کاربرد ترمودینامیک در متالوژی فیزیکی پیش بینی حالت تعادل برای یک آلیاژ است .

در بررسی های مربوط به دگرگونی های فازی ما همیشه با تغییر سیستم به سمت تعادل روبه رو هستیم. بنابراین ترمودینامیک به صورت یک ابزار بسیار سودمند می تواند عمل کند. باید توجه داشت که ترمودینامیک به تنهایی نمی تواند سرعت رسیدن به حالت تعادل را تعیین کند .

1-تعادل :

یک فاز به عنوان بخشی از یک سیستم تعریف می شود که دارای خصوصیات و ترکیب شیمیایی یکنواخت و همگنی بوده و از نظر فیزیکی از دیگر بخشهای سیستم جداشدنی است . اجزای تشکیل دهنده یک سیستم خاص عناصر مختلف یا ترکیب های شیمیایی است که سیستم را بوجود می آورد و ترکیب شیمیایی یک فاز یا یک سیستم را می توان با مشخص کردن مقدار نسبی هر جزء تشکیل دهنده تعیین کرد .

به طور کلی دلیل رخداد یک دگرگونی این است که حالت اولیه یک آلیاژ نسبت به حالت نهایی ناپایدارتر است اما پایداری یک فاز چگونه تعیین می شود ؟ این پرسش به وسیله ترمودینامیک پاسخ داده می شود . برای دگرگونی هایی که در دما و فشار ثابت رخ می دهد پایداری نسبی یک سیستم از انرژی آزاد گیبس G آن سیستم مشخص می شود .

انرژی آزاد گیبس یک سیستم به صورت زیر تعریف می شود :

( 1-1 ) G=H-TS

که H آنتالپی T دمای مطلق و S آنتروپی سیستم است . آنتالپی میزان گنجایش حرارتی سیستم مورد نظر است و به وسیله رابطه زیر بیان می شود.

( 2-1 ) H=E+PV

که E انرژی درونی سیستم P فشار و V حجم سیستم است . انرژی درونی مجموع انرژی های پتانسیل و جنبشی اتم های درون یک سیستم است. در جامدات انرژی جنبشی تنها ناشی از حرکت ارتعاشی اتم ها است در حالی که در مایعات و گاز ها انرژی جنبشی افزون بر حرکت ارتعاشی اتم ها انرژی انتقالی و انرژی دورانی اتم ها و مولکول ها و گاز ها انرژی جنبشی افزون بر حرکت ارتعاشی اتم ها انرژی انتقالی و انرژی دورانی اتم ها و مولکول های داخل یک مایع یا گاز را نیز در برمیگیرد . انرژی پتانسیل نیز بر اثر اندرکنش ها یا پیوند بین اتم های درون یک سیستم به وجود می آید . هنگامی که یک دگرگونی یا واکنش رخ می دهد حرارت جذب شده یا حرارت آزاد شده به تغییرات در انرژی درونی سیستم ارتباط پیدا می کند اما تغییرات حرارت تابعی از تغییر حجم سیستم نیز بوده و عبارت PV نمایانگر این موضوع است بنابراین در فشار ثابت تغییرات H نشانگر حرارت جذب شده یا آزاد شده است.

هنگامی که یک فاز متراکم (جامد یا مایع) را بررسی می کنیم و عبارت PV در مقایسه با E مقدار بسیار کوچکی است که آن را نادیده می گیرند و .

عبارت دیگری که در رابطه مربوط به G پدیدار می شود آنتروپی ( S ) بوده که بیانگر میزان بی نظمی سیستم است .

هنگامی یک سیستم را در ( حالت ) تعادل می دانند که در پایدارترین حالت خود قرار گرفته باشد یعنی با گذشت زمان هیچ تغییری در سیستم ایجاد نشود . یک نتیجه مهم از قوانین ترمودینامیک کلاسیک این است که در دما و فشار ثابت یک سیستم بسته ( یعنی سیستمی که جرم و ترکیب شیمیایی آن ثابت است ) هنگامی در تعادل پایدار قرار دارد که انرژی آزاد گیپس آن کمترین مقدار ممکن را داشته باشد یا به شکل ریاضی :

( 3-1 ) dG=O

با توجه به تعریف G ( معادله 1-1 ) ملاحظه می شود که پایدارترین حالت هنگامی رخ می دهد که سیستم کمترین آنتالپی و بیشترین آنتروپی را دارا باشد . بنابراین در دماهای پایین فازهای جامد پایدارتر است چون قویترین اتصال بین اتمی را داشته بنابراین کمترین انرژی درونی ( آنتالپی ) را دارد . در دماهای بالا چون عبارت TS - عبارت غالب است بنابراین فازهایی با بی نظمی بیشتر همچون مایعات و گازها که اتم های آنها به آسانی حرکت کرده و جابه جا می شود پایدارتر است .

تعادل که به وسیله معادله 3-1 تعریف می شود را می توان به صورت ترسیمی نیز نشان داد . اگر انرژی آزاد تمام حالت های فرضی ممکن یک سیستم را محاسبه کنیم آرایش پایدار حالتی خواهد بود که انرژی آزاد آن کمترین مقدار است . این موضوع در شکل یک نشان داده شده است و با این فرض که انرژی مربوط به هر یک از آرایش های اتمی مختلف به صورت نقطه ای روی منحنی موجود قرار می گیرد آرایش یا نظم A نشانگر وجود تعادل پایدار است . در این نقطه تغییرات کوچک در ترتیب اتم ها با یک تقریب مرتبه اول تغییری در G ایجاد نمی کند یعنی معادله 3-1 برقرار است . اگر چه همیشه آرایش ها و نظم های دیگری مانند B وجود دارد که در آن نقاط انرژی آزاد به طور موضعی کمینه است و معادله 3-1 را نیز تصدیق می کند ولی کمترین مقدار ممکن G را ندارد . چنین حالت ها یا آرایش هایی را به منظور جدا کردن از حالت پایدار حالت تعادل نیمه پایدار می نامند . حالت های میانی که را حالت ناپایدار می نامند و فقط در کارهای عملی و به طور لحظه ای هنگام انتقال از یک حالت پایدار به حالت دیگر به وجود می آید . اگر بر اثر نوسان های دمایی اتم ها یک نظم یا آرایش حالت میانی بیاید این نظم بسرعت تغییر می کند و اتم ها دوباره نظم یکی از حالت های دارای انرژی آزاد کمینه را به خود می گیرند . اگر بواسطه تغییری در دما یا فشار برای مثال یک سیستم از حالت پایدار به حالت نیمه پایدار حرکت کند با گذشت زمان سیستم به حالت تعادل پایدار جدیدی تغییر حالت می دهد .

شکل یک : تغییرات شماتیک انرژی آزاد گیبس نسبت به نظم و وضعیت اتمها . آرایش یا نظم A کمترین انرژی آزاد را دارد . بنابراین هنگامی که سیستم در تعادل پایدار است دارای چنین نظمی خواهد بود . آرایش B یک تعادل نیمه پایدار است .

بر اساس قوانین ترمودینامیک هر دگرگونی که به کاهش انرژی آزاد سیستم می انجامد امکان پذیر است . بنابراین یک معیار یا ملاک لازم برای هر دگرگونی فازی رابطه زیر است :

( 4-1 )

و به ترتیب انرژی های آزاد حالت های اولیه و نهایی سیستم است . برای یک دگرگونی لازم نیست که یکباره و به طور مستقیم به حالت تعادل پایدار نهایی برسد بلکه دگرگونی می تواند در چندین مرحله و گذر از یک سری حالت های نیمه پایدار میانی به حالت پایدار نهایی برسد .

2-سیستم های یک جزیی :

در این قسمت تغییرات فازی را بررسی می کنیم که در یک سیستم یک جزئی در اثر تغییر دما و در یک فشار ثابت (برای مثال یک اتمسفر) ایجاد می شود. سیستمی که از یک جزء تشکیل شده می تواند یک عنصر خالص یا یک نوع مولکول باشد که در محدوده دمایی مورد نظر تجزیه نمی شود. به منظور تعیین فازهای پایدار و یا دماهای مختلف فازهایی که با یکدیگر در تعادل است باید تغییرات G با دما (T) را بتوان محاسبه کرد .


دانلود با لینک مستقیم


ترمودینامیک

مبانی دا ت نت

اختصاصی از هایدی مبانی دا ت نت دانلود با لینک مستقیم و پر سرعت .

لینک دانلود و خرید پایین توضیحات

فرمت فایل word  و قابل ویرایش و پرینت

تعداد صفحات: 234

 

مبانی دا ت نت ( بخش اول )

دات نت ، پلات فرم  جدید ماکروسافت بمنظور تحقق نظریه : " نرم افزار بعنوان سرویس " ، است . دات نت  یک محیط  پیاده سازی است که بکمک آن می توان اقدام به ایجاد و بکارگیری نرم افزار و نسل جدیدی از عناصر موسوم به " سرویس های وب " ، نمود.  تمامی محصولات اصلی ماکروسافت از ویژوال استودیو دات نت تا ویندوز و نهایتا"  مجموعه آفیس ، متاثر از پلات فرم فوق شده و خواهند شد . دات نت به پیاده کنندگان این امکان را خواهد داد که با زبان برنامه نویسی مورد علاقه خود ، اقدام به پیاده سازی برنامه ها  نمایند.  ویژگی ( پتانسیل ) فوق از طریق معرفی CLR)Common Language Runtime )، میسر شده است . در این مقاله قصد داریم به بررسی دات نت پرداخته و پتانسیل ها و قابلیت های آن را تشریح نمائیم . در جولای سال 2000 ، شرکت ماکروسافت در کنفرانس پیاده کنندگان حرفه ای (PDC ) ، در شهر Orlando ایالت کالیفرنیا ،  جزئیات بیشتری از نسل جدید پلات فرم خود ( دات نت )  بمنظور پیاده سازی برنامه های ویندوز و اینترنت را در اختیار علاقه مندان خصوصا" پیاده کنندگان نرم افزار قرار داد . محوریت ابتکار فوق ، بر فریمورک دات نت استواربوده  ونشاندهنده یک پلات فرم مناسب بهمراه  کتابخانه های کلاس گسترده ای است که پتانسیل های متعددی را در اختیار قرار می دهد. یکی از نکات قابل توجه  در پلات فرم فوق،استفاده از  XML و SOAP  بمنظور ارتباط بین نرم افزارها ی موجود در اینترنت ( نرم افزارهای مبتنی بر وب ) ، است . در این راستا مجموعه ای از محصولات مبتنی بر سرویس دهنده با نام سرویس دهندگان Enterprise  دات نت،  مطرح که بمنزله نسل جدیدی از  محصولات Backoffice  ماکروسافت ، می باشند. فریمورک دات نت ، مدلی کاملا" جدید بمنظور برنامه نویسی و بکارگیری نرم افزار را ارائه  نموده است. "بیل گیتس "، در سخنرانی خود در PDC ، بدین نکته  اشاره داشتند  که در هر پنج تا شش سال ما شاهد یک  تحول عمده در رابطه با پیاده سازی نرم افزار بوده ایم . آخرین موارد در این زمینه به سوئیچ  از DOS به ویندوز در سال 1990 و گذر از پیاده سازی شانزده بیتی به سی و دو بیتی ( از ویندوز widows 3.x به ویندوز NT/95 ) در اواسط دهه 90 میلادی ، است.با معرفی دات نت در PDC ، پیاده کنندگان آن را معماری مناسبی برای پیاده سازی نرم افزار ( برنامه های Desktop و برنامه های وب )  مشاهده نمودند . ویژوال استودیو دات نت ، اولین محصول مبتنی بر دات نت ماکروسافت بوده که در سال 2001 در اختیار علاقه مندان قرار گرفت . اهمیـت دات نت برای ماکروسافت تا بدین حد است که در سال 2001 ، بیش از هشتاد درصد منابع  بخش تحقیق و توسعه این شرکت در رابطه با آن صرف شده است . زبان سی شارپ ، که زبانی جدید برای برنامه نویسی در دات نت است بعنوان زبان استاندارد برای پیاده سازی داخلی در شرکت ماکروسافت پذیرفته شده است .

یک پلات فرم مناسب برای آینده  دات نت،  اولین پلات فرم طراحی شده از صدر تا ذیل با در نظر گرفتن واقعیتی با نام  اینترنت است . دات نت از یک ماشین مجازی  خاص در این زمینه استفاده می نماید . ماهیت ماشین مجازی فوق ، بگونه ای است که  از API ویندوز فاصله و در این رابطه از یک کتابخانه کلاس استفاده می نماید که می توان به جرات این ادعا را داشت که تاکنون نظیر آن ، ایجاد نشده است . امکان استفاده از زبانهای متعدد برنامه نویسی ، وجود خواهد داشت .معماری  دات نت ، امکان ارتباط بین زبانها را بسادگی فراهم خواهد کرد .دات نت ، یک رویکرد جدید در رابطه با پیاده سازی نر م افزار را مطرح نموده است . نگاه به دات نت ، عمدتا" بصورت سیستم های توزیع شده است. با استفاده از XML ،امکان اجرای  توابع بر روی کامپیوترهای متفاوت یک سازمان ویا جهان فراهم و جلوه ای زیبا در همیاری بمنظور اجرای یک برنامه ، به نمایش در خواهد آمد. از این منظر ، سیستم ها از سرویس دهندگان تا سیستم های بدون کابل ، قادر به اشتراک پلات فرم عمومی یکسانی خواهند بود . با استفاده از  نسخه های  دات نت که برای تمام آنها در دسترس خواهد بود،  امکان ارتباط مناسب آنها با یکدیگر فراهم خواهد شد. دات نت ، بمنظور طراحی و پیاده سازی برنامه های سنتی نیز راهکارها و امکانات مناسبی را ارائه تا از این طریق امکان پیاده سازی و بکارگیری این نوع از نرم افزارها ، بسادگی انجام گیرد . برخی از تکنولوژی ها ی  ارائه شده در دات نت نظیر فرم های ویندوز، تلاشی در این راستا است .

ایده های اولیه از اواخر سال 1995 ، شرکت ماکروسافت توجهی خاص و  قابل توجه نسبت به اینترنت نمود . هدف ماکروسافت در این زمینه پیوند بین پلات فرم ویندوز و اینترنت بود. ماحصل تلاش  ماکروسافت در این زمینه ارائه مدل برنامه نویسی Windiws DNA ، بود . در این راستا مجموعه ای از ابزارها و تکنولوژی های  مبتنی بر اینترنت ، طراحی و ارائه گردید . ASP  ، از اولین تلا ش های ماکروسافت در این زمینه است . عملا" در این زمینه ( مطرح شدن اسکریپت ها ی مفسری ) یک برگشت به عقب نسبت به پیاده سازی ساختیافته و شی گراء را شاهد بوده ایم . طراحی ، اشکال زدائی و نگهداری چنین کدهای غیر ساختیافته ای مسائل خاص خود را خواهد داشت . سایر زبانها نظیر ویژوال بیسیک بصورت موفقیت آمیز در رابطه با برنامه نویسی بر روی اینترنت و پلات فرم ماکروسافت استفاده می گردید ولی اغلب از آن  بمنظور ایجاد عناصری که از طریق ASP ، بخدمت گرفته می شدند ، استفاده می گردید .در این رابطه تلاش های اندکی  نیز در جهت  ایجاد یک اینترفیس مبتنی بر وب بر روی زبان های سنتی نظیر webclasses در VB ، نیز انجام شد ولی هیچکدام از تلاش های فوق ، در سطح گسترده ای مورد استقبال و پذیرش قرار نگرفت . ماکروسافت در صدد حل آشفتگی های همراه برنامه های ویندوز DNA بود . ویندوز DNA ، تصویری مناسب از یک معماری Three-Tire و مبتنی بر COM بود که تکنولوژی ASP در لایه Presentation ، اشیاء Bussiness در لایه میانی و یک engine  بانک اطلاعاتی رابطه ای در لایه Data ، قرار می گرفت . مفاهیم همراه DNA ،کامل و بی عیب  بود اما در زمان استفاده عملیاتی  چالش های خاص خود را بدنبال داشت . پیاده سازی عناصر COM ، مستلزم یک سطح مناسب از دانش و مهارت است  و می بایست زمان زیادی  در این رابطه صرف گردد .  بکارگیری نرم افزارهای DNA ، نیز مسائل خاص خود را داشت ( مسائل مربوط به ورژن ، نصب عناصر و عناصری که با آن  مرتبط می باشند ) . بموازات تلاش سایر شرکت ها در رابطه با ارائه راهکارهائی خاص بمنظور پیاده سازی برنامه ها ی وب  ،  شرکت ماکروسافت در صدد برطرف نمودن محدودیت های مدل برنامه نویسی DNA  گردید.

تولد دات نت در اوایل سال 1998 ، گروهی از پیاده کنندگان نرم افزار در ماکروسافت ، کار خود را بر روی نسخه ای جدید از IIS ( نسخه چهار) ، به اتمام رساندند که دارای چندین ویژگی جدید در رابطه با ASP


دانلود با لینک مستقیم


مبانی دا ت نت

تحقیق درباره نظریه‌های اینشتین(نسبیت عام و خاص)

اختصاصی از هایدی تحقیق درباره نظریه‌های اینشتین(نسبیت عام و خاص) دانلود با لینک مستقیم و پر سرعت .

لینک دانلود و خرید پایین توضیحات

فرمت فایل word  و قابل ویرایش و پرینت

تعداد صفحات: 21

 

نظریه‌های اینشتین(نسبیت عام و خاص)

اینشتین دو نظریه دارد. نسبیت خاص را در سن 25 سالگی بوجود آورد و ده سال بعد توانست نسبیت عام را مطرح کند.

نسبیت خاص بطور خلاصه تنها نظریه ایست که در سرعتهای بالا (در شرایطی که سرعت در خلال حرکت تغییر نکند--سرعت ثابت) می‌توان به اعداد و محاسباتش اعتماد کرد. جهان ما جوریست که در سرعتهای بالا از قوانین عجیبی پیروی می‌کند که در زندگی ما قابل دیدن نیستند. مثلا وقتی جسمی با سرعت نزدیک سرعت نور حرکت کند زمان برای او بسیار کند می‌‌گذرد. و همچنین ابعاد این جسم کوچکتر می‌شود. جرم جسمی که با سرعت بسیار زیاد حرکت می‌کند دیگر ثابت نیست بلکه ازدیاد پیدا می‌کند. اگر جسمی با سرعت نور حرکت کند، زمان برایش متوقف می‌شود، طولش به صفر میرسد و جرمش بینهایت می‌شود.

نسبیت عام برای حرکتهایی ساخته شده که در خلال حرکت سرعت تغییر می‌کند یا باصطلاح حرکت شتابدار دارند. شتاب گرانش زمین g که همان عدد 9.81m/sاست نیز یک نوع شتاب است. پس نسبیت عام با شتابها کار دارد نه با حرکت. نظریه ایست راجع به اجرامی که شتاب گرانش دارند. کلا هرجا در جهان، جرمی در فضای خالی باشد حتما یک شتاب گرانش در اطراف خود دارد که مقدار عددی آن وابسته به جرم آن جسم می‌‌باشد. پس در اطراف هر جسمی شتابی وجود دارد. نسبیت عام با این شتابها سر و کار دارد و بیان می‌کند که هر جسمی که از سطح یک سیاره دور شود زمان برای او کندتر می‌شود. یعنی مثلا، اگر دوربینی روی ساعت من بگذارند و از عقربه‌های ساعتم فیلم زنده بگیرند و روی ساعت آدمی که دارد بالا می‌رود و از سیارهٔ زمین جدا می‌شود هم دوربینی بگذارند و هردو فیلم را کنار هم روی یک صفحهٔ تلویزیونی پخش کنند، ملاحظه خواهیم کرد که ساعت من تند تر کار می‌کند. نسبیت عام نتایج بسیار شگرف و قابل اثبات در آزمایشگاهی دارد. مثلا نوری که به پیرامون ستاره‌ای سنگین میرسد کمی بسمت آن ستاره خم می‌شود. سیاهچاله‌ها هم برپایه همین خاصیت است که کار می‌کنند. جرم انها بقدری زیاد و حجمشان بقدری کم است که نور وقتی از کنار آنها می‌‌گذرد به داخل آنها می‌‌افتد و هرگز بیرون نمی‌آید.

نظریه نسبیت عام همه ما برای یک‌بار هم که شده گذرمان به ساعت‌فروشی افتاده است و ساعتهای بزرگ و کوچک را دیده ایم که روی ساعت ده و ده دقیقه قرار دارند. ولی هیچگاه از خودمان نپرسیده ایم چرا؟ انیشتین در نظریه نسبیت خاص با حرکت شتابدار و یا با گرانش کاری نداشت. نخستین موضوعات را در نظریه نسبیت عام خود که در 1915 انتشار یافت مورد بحث قرار داد. نظریه نسبیت عام دید گرانشی را بکلی تغییر داد و در این نظریه جدید نیروی گرانش را مانند خاصیتی از فضا در نظر گرفت نه مانند نیرویی میان پیکرها، یعنی برخلاف آنچه که نیوتن گفته بود! در نظریه او فضا در مجاورت ماده کمی انحنا پیدا می‌کرد. در نتیجه حضور ماده اجرام، مسیر یا به اصطلاح کمترین مقاومت را در میان خمه‌ها (منحنیها) اختیار می‌کردند. با این که فکر انیشتین عجیب به نظر می‌رسید می‌توانست چیزی را جواب دهد که قانون گرانش نیوتن از پاسخ دادن آن عاجز می‌‌ماند. سیاره اورانوس در سال 1781 میلادی کشف شده بود و مدارش به دور خورشید اندکی ناجور به نظر می‌رسید و یا به عبارتی کج بود!

نیم سده مطالعه این موضوع را خدشه‌ناپذیر کرده بود. بنابر قوانین نیوتن می‌‌بایست گرانشی برآن وارد شود. یعنی باید سیاره‌ای بزرگ در آن سوی اورانوس وجود داشته باشد تا از طرف آن نیرویی بر اورانوس وارد شود. در سال 1846 میلادی اخترشناس آلمانی دوربین نجومی خودش را متوجه نقطه‌ای کرد که «لووریه» گفته بود و بی هیچ تردید سیاره تازه‌ای را در آنجا دید که از آن پس نپتون نام گرفت. نزدیک‌ترین نقطه مدار سیاره تیر (عطارد) به خورشید در هر دور حرکت سالیانه سیاره تغییر میکرد و هیچ گاه دوبار پشت سر هم این تغییر در یک نقطه ویژه اتفاق نمی‌افتاد. اخترشناسان بیشتر این بی نظمی‌ها را به حساب اختلال ناشی از کشش سیاره‌های مجاور تیر (عطارد) می‌‌دانستند! مقدار این انحراف برابر 43 ثانیه قوس بود. این حرکت در سال 1845 به وسیله لووریه کشف شد بالاخره با ارائه نظریه نسبیت عام جواب فراهم شد این فرضیه با اتکایی که بر هندسه نااقلیدسی داشت نشان داد که حضیض هر جسم دوران کننده حرکتی دارد علاوه برآنچه نیوتن گفته بود. وقتی که فرمولهای انیشتین را در مورد سیاره عطارد به کار بردند، دیدند که با تغییر مکان حضیض این سیاره سازگاری کامل دارد. سیاره‌هایی که فاصله شان از خورشید بیشتر از فاصله تیر تا آن است تغییر مکان حضیضی دارند که به طور تصاعدی کوچک می‌شوند.اثر بخش‌تر از اینها دو پدیده تازه بود که تنها نظریه انیشتین آن‌را پیشگویی کرده بود. نخست آنکه انیشتین معتقد بود که میدان گرانشی شدید موجب کند شدن ارتعاش اتمها


دانلود با لینک مستقیم


تحقیق درباره نظریه‌های اینشتین(نسبیت عام و خاص)