موتور جستجو (پردازش)
موتور جستجو (به انگلیسی: Search Engine) یا جویشگر، در فرهنگ رایانه، به طور عمومی به برنامه‌ای گفته می‌شود که کلمات کلیدی را در یک سند یا بانک اطلاعاتی جستجو می‌کند. در اینترنت به برنامه‌ای گفته می‌شود که کلمات کلیدی موجود در فایل‌ها و سندهای وب جهانی، گروه‌های خبری، منوهای گوفر و آرشیوهای FTP را جستجو می‌کند. جویشگر های زیادی وجود دارند که امروزه از معروفترین و پراستفاده ترین آنها می‌توان به google و یاهو! جستجو اشاره کرد.





بهینه‌سازی موتور جستجو
بهینه‌سازی موتور جستجو (به انگلیسی: ‎Search engine optimization (SEO)) که گاهی در فارسی به آن سئو گفته می‌شود عملیاتی است که برای بهبود دید یک وب‌گاه یا یک صفحهٔ وب در صفحه نتایج موتورهای جستجو که می‌تواند طبیعی و یا الگوریتمی باشد، می‌گویند. این یکی از روش‌های بازاریابی موتور جستجو است. به صورت کلی وب‌گاه‌هایی که دارای بالاترین مکان و بیشترین تکرار در صفحهٔ نتایج موتورهای جستجو باشند، بازدیدکنندهٔ بیشتری از طریق موتورهای جستجو به دست می‌آورند.برای وبمسترها یکی از عوامل مهم و حیاتی بدست اوردن کاربران جدید از موتورهای جستجو و بخصوص گوگل می باشد.







تاریخچه

علم سئو در اواسط دهه ۱۹۹۰ توسط وب مستر ها و مدیران سایتهای بزرگ شروع شد. در ابتدا همه وب مسترها می بایست تمام صفحات خود را برای آمدن خزنده ها به سایت آنها ثبت می کردند تا در نهایت صفحات آنها در نتایج جستجو به نمایش گذاشته می شد. امروزه با رشد اینترنت فروش خدمات اینترنتی هم افزایش یافته است.







روش‌ها
شاخص گذاری کردن

موتورهای جستجوی پیشتاز همچون Yahoo!،Google و Bing از خزنده‌ها جهت یافتن صفحات برای نتایج جستجوی الگوریتمیک استفاده می‌کنند. صفحاتی که از داخل باقی صفحات ایندکس شده توسط موتورهای جستجو Link شده‌اند نیاز به ارسال به موتور جستجو نداشته و بصورت خودکار پیدا می‌شوند. بعضی از موتورهای جستجو ازجمله!Yahoo سرویس پولی ارسال را پیاده می‌کنند که استفاده از خزنده‌ها را هم بصورت مجموعه‌ای از قیمت‌ها و نیز بصورت سیستم بها به ازاء هر Click، اجرا می‌کند. این برنامه‌ها معمولاً قرارگیری در بانک اطلاعاتی موتور جستجو را ضمانت کرده و در قبال رتبه‌ای مشخص برای صفحه در لیست نتایج جستجو ضمانتی نمی‌کنند. دو فهرست اصلی اینترنتی یعنی Yahoo Directory و Open Directory Project، هردو نیاز به ارسال دستی و بررسی انسانی دارند.Google ابزاری به نام Google Webmaster Tools ارائه می‌دهد که در آن می‌توان نقشه سایت را توسط خوراک XML ایجاد کرده و بصورت رایگان ارسال نمود تا از یافته شدن تمام صفحات حتی صفحاتی که بصورت خودکار از طریق دنبال کردن Linkها پیدا نمی‌شوند، اطمینان حاصل نمود. خزنده‌های موتورهای جستجو می‌توانند به عوامل مختلفی در هنگام خزیدن در یک سایت توجه کنند. تمامی صفحات ایندکس نمی‌شوند. همچنین فاصله یک صفحه از ریشه سایت می‌تواند عاملی در پیدا شدن یا عدم آن توسط خزنده‌های موتورهای جستجو باشد. امروزه بسیاری از شرکتهای مطرح در دنیا به بررسی و اجرای خدمات سئو برای شرکتهای مختلف مشغول هستند.







صفحه فرود یا landing page

یکی از فاکتورهای مهم در خصوص سئو مشخص کردن صفحات فرود یا landing page است.
انتخاب کلید واژه‌های مناسب

انتخاب کلید واژه‌های مناسب یکی از فاکتورهای مهم در این رابطه‌است که بایستی توسط دارندگان وب سایت و برنامه نویسان در نظر گرفته شود.







جلوگیری از اجرای خزنده‌ها در صفحات

وبمسترها برای جلوگیری از نتایج ناخواسته در شاخص‌های جستجومی‌توانندعنکبوتهایی توسط فایل استاندارد robots.txt که در فهرست ریشه دامنه ذخیره می‌شود، بسازند که فایلها و فهرست‌های خاصی را مورد خزیدن (Crawl)قرار ندهد.







تولید محتوای جدید و کاربرپسند

یکی از کارهای مهمی که وب مسترها برای بهینه سازی سایت خود و یا سایت های دیگران انجام می دهند تولید محتوای مناسب و جدید برای آن سایت می باشد. محتوای مناسب علاوه بر اینکه بازدید یک سایت را بالا می برد اعتبار سایت را نزد موتورهای جستجو افزایش می دهد و می توانید لینک های طبیعی برای سایت ایجاد کند.





الگوریتم جستجو
در علوم کامپیوتر و ریاضیات، یک الگوریتم جستجو، الگوریتمی است که یک مساله را به عنوان ورودی می‌گیرد و بعد از ارزیابی کردن راه حل‌های ممکن، یک راه حل برای آن مساله برمی گرداند.مجموعهٔ راه حل‌های ممکن برای یک مساله را فضای جستجو می‌نامند.بعضی از الگوریتم‌ها که با عنوان الگوریتم‌های ناآگاهانه شناخته می‌شوند الگوریتم‌هایی هستند که از متدهای ساده‌ای برای جستجوی فضای نمونه استفاده می‌کنند.در حالی که الگوریتم‌های آگاهانه با استفاده روش‌هایی مبتنی بر دانش در بارهٔ ساختار فضای جستجو، می‌کوشند تا زمان جستجو را کاهش دهند.







رده بندی

در کتاب راسل این الگوریتم‌ها به شکل زیر رده بندی شده‌اند.

الگوریتم‌های ناآگاهانه
الگوریتم نخست-پهنا
الگوریتم نخست-ژرفا
الگوریتم‌های آگاهانه
الگوریتم نخست-بهترین
الگوریتم مکاشفه‌ای








جستجوی ناآگاهانه

یک الگوریتم جستجوی ناآگاهانه الگوریتمی است که به ماهیت مساله کاری ندارد.از این رو می‌توانند به طور عمومی طراحی شوند و از همان طراحی برای محدودهٔ عظیمی از مسائل استفاده کنند، این امر نیاز به طراحی انتزاعی دارد. از جمله مشکلاتی که این چنین الگوریتم‌هایی دارند این است که اغلب فضای جستجو بسیار بزرگ است و نیازمند زمان زیادی (حتی برای نمونه‌های کوچک) می‌باشد.از این رو برای بالا بردن سرعت پردازش غالبا از الگوریتم‌های آگاهانه استفاده می‌کنند.







جستجوی لیست

الگوریتم‌های جستجوی لیست شاید از ابتدایی ترین انواع الگوریتم‌های جستجو باشند.هدف آن پیدا کردن یک عنصر از مجموعه‌ای از کلید هاست(ممکن است شامل اطلاعات دیگری مرتبط با آن کلید نیز باشد). ساده ترین این الگوریتم‌ها، الگوریتم جستجوی ترتیبی است که هر عنصر از لیست را با عنصر مورد نظر مقایسه می‌کند. زمان اجرای این الگوریتم از (O(n است وقتی که n تعداد عناصر در لیست باشد. اما می‌توان از روش دیگری استفاده کرد که نیازی به جستجوی تمام لیست نباشد.جستجوی دودویی اندکی از جستجوی خطی است.زمان اجرای آن از(O(lgn است.این روش برای لیستی با تعداد دادهٔ زیاد بسیار کار آمد تر از روش الگوریتم جستجوی ترتیبی است.اما در این روش لیست باید قبل از جستجو مرتب شده باشد.{{جستجو با میان یابی برای داده‌های مرتب شده با تعداد زیاد و توزیع یکنواخت، مناسب تر از جستجوی دودویی است.زمان اجرای آن به طور متوسط ((O(lg(lgn است ولی بدترین زمان اجرای آن (O(n می‌باشد. الگوریتم graver الگوریتم پله‌ای است که برای لیست‌های مرتب نشده استفاده می‌شود. جدول درهم‌سازی نیز برای جستجوی لیست به کار می‌رود. به طور متوسط زمان اجرای ثابتی دارد.اما نیاز به فضای اضافه داشته و بدترین زمان اجرای آن از(O(n است.







جستجوی درختی

الگوریتم‌های جستجوی درختی، قلب شیوه‌های جستجو برای داده‌های ساخت یافته هستند.مبنای اصلی جستجوی درختی، گره‌هایی است که از یک ساختمان داده گرفته شده‌اند. هر عنصر که بخواهد اضافه شود با داده‌های موجود در گره‌های درخت مقایسه می‌شود و به ساختار درخت اضافه می‌شود.با تغییر ترتیب داده‌ها و قرار دادن آنها در درخت، درخت با شیوه‌های مختلفی جستجو می‌شود. برای مثال سطح به سطح (جستجوی نخست-پهنا) یا پیمایش معکوس درخت (جستجوی نخست-ژرفا).از مثال‌های دیگر جستجوهای درختی می‌توان به جستجوی عمقی تکرار شونده، جستجوی عمقی محدود شده، جستجوی دوطرفه، جستجوی هزینه یکنواخت اشاره کرد.







جستجوی گراف

بسیاری از مسائل در نظریهٔ گراف می‌تواند با الگوریتم‌ها ی پیمایش درخت حل شوند، مثل الگوریتم دیکسترا، الگوریتم کروسکال، الگوریتم نزدیک ترین همسایه و الگوریتم پریم. می‌توان این الگوریتم‌ها را توسعه یافتهٔ الگوریتم‌های جستجوی درختی دانست.







جستجوی آگاهانه

در یک جستجوی آگاهانه، از نوع خاصی از مسائل به عنوان راهنما استفاده می‌شود.یک گونهٔ خوب یک جستجوی آگاهانه با کارایی قابل توجهی نسبت به جستجوی ناآگاهانه به وجود می‌آورد. الگوریتم‌های برجستهٔ کمی از جستجوی آگاهانهٔ یک لیست وجود دارد. یکی از این الگوریتم‌ها hash table با یک تابع hash که برمبنای نوع مساله‌ای که دردست است می‌باشد.بیشتر الگوریتم‌های جستجوی آگاهانه، بسطی از درخت‌ها هستند.همانند الگوریتم‌های ناآگاهانه، این الگوریتم‌ها برای گراف‌ها نیز می‌توانند به کار روند.







جستجوی خصمانه

در یک بازی مثل شطرنج، یک درخت بازی شامل تمام حرکات ممکن توسط هر دو بازیکن و نتایج حاصل از ترکیب این حرکات وجود دارد، و ما می‌توانیم این درخت را جستجو کرده و موثرترین استراتژی برای بازی را بیابیم. این چنین مسائلی دارای مشخصهٔ منحصر به فردی هستند.برنامه‌های بازی‌های رایانه‌ای، و همچنین فرم‌های هوش مصنوعی مثل برنامه ریزی ماشین‌ها، اغلب از الگوریتم‌های جستجو مثل الگوریتم minimax (می نیمیم مجموعه‌ای از ماکزیمم‌ها)، هرس کردن درخت جستجو و هرس کردن آلفا-بتا استفاده می‌کنند.

==الگوریتم اف اسکن==

(FSCAN) F-SCAN یک الگوریتم زمان بندی دیسک است که حرکت آرم و هد دیسک در سرویس دهی درخواست‌های خواندن و نوشتن را تعیین می‌کند. طی روبش تمام درخواست‌ها در صف اول داده‌ها ی اولیه هستند و تمام درخواست‌های جدید در صف داده‌های ثانویه قرار داده می‌شوند. بنا براین سرویس دهی به درخواست‌های جدید به تاخیر می‌افتد تا زمانی که تمام درخواست‌های قدیمی تحت پردازش قرار گیرد. هنگامی که روبش پایان می‌یابد آرم به تمام صف داده‌های اولیه برده می‌شود و دوباره سرتاسر آن شروع می‌شود.







تحلیل الگوریتم

الگوریتم F-SCAN مطابق N-Step-SCAN از چسبانکی آرم جلوگیری می‌کند در صورتی که در الگوریتم‌های دیگر مانند SSTF، SCAN و C-LOOK چنین امری اتفاق نمی‌افتد. چسبانکی آرم در الگوریتم‌های دیگر وقتی رخ می‌دهد که هجمه‌ای از درخواست‌ها برای مسیر مشترک موجب می‌شود تا آرم دیسک توقف پردازش در آن مسیر گردد، از این رو ترجیح داده می‌شود که هیچ جستجوئی برای درخواست‌های آن مسیری که در آن است مورد تایید واقع نشود، از آن جا که F-SCAN درخواست‌ها را به دو صف داده‌ها جدا می‌کند، روبرو شدن با درخواست‌های جدید به صف داده‌های در حال انتظار برده می‌شود، آرم روبش خود را تا مسیر بیرونی ادامه می‌دهد و از این رو چسبانکی پیش روی الگوریتم نیست. یک معاوضه آشکار وجود دارد به طوری که درخواست‌ها در صف داده‌های در حال انتظار باید انتظار طولانی تر تا برای به اجرا درآوردن بکشند، اما در مبادله F-SCAN برای تمام درخواست‌های رضایت بخش تر است.

دیگر متغیرها شامل موارد زیر می‌شود:

الگوریتم آسانسور –اسکن
LOOK (C-LOOK)
N-Step-SCAN






جستجو سه‌تایی

جستجو سه‌تایی

در علوم کامپیوتر رویه ی جستجو ترنری مهارتی برای پیدا کردن مقدار بیشینه و یا کمینه در توابع أکید است. در این رویه مشخص می‌کنیم که مقدار بیشینه یا کمینه تابع نمی‌تواند در یک سوم ابتدا یا انتهای دامنه ی تابع وجود داشته باشد. سپس همین شیوه را بر روی دو سوم باقی‌مانده به کار می‌بریم. جستجو سه‌تایی نمومه‌ای از روش الگوریتم_تقسیم_و_حل است





موتور جستجوی وب
موتور جستجوی وب (به انگلیسی: Web search engine) موتور جستجویی است که برای جستجوی اطلاعات تحت محیط وب طراحی شده‌است.





جستجوگر گوگل
جستجوی گوگل (به انگلیسی: Google search) یک موتور جستجو در وب است که تحت مالکیت گوگل قرار دارد. گوگل از راه این وب‌گاه روزانه صدها میلیون دلار دریافت می‌کند و این وب‌گاه در سال ۱۹۹۷ به وجود آمد. دامنهٔ اصلی این سایت در مه ۲۰۰۸ ۱۳۵ میلیون بار بازدید شده‌است. این موتور جستجو بیشترین بازدیدکننده در بین کاربران را دارد. موتور گوگل روزانه چند صد میلیون بار به طرق مختلف استفاده می‌شود. مهم ترین هدف گوگل یافتن متن مورد نظر در میان صفحات وب است. اما انواع دیگر اطلاعات به وسیله قسمت‌های دیگر آن مثل جستجوی تصاویر گوگل، نیز مورد جستجو قرار می‌گیرند. جستجوگر گوگل توسط لری پیج و سرگئی برین در سال ۱۹۹۷ ساخته شد. این جستجوگر به جز جستجوی واژگان، ۲۲ حالت جستجوی دیگر نیز دارد. مثل جستجوی مترادف‌ها، پیش‌بینی هوا، محدوده‌های زمانی (وقت محلی)، قیمت سهام، اطلاعات زلزله، زمان نمایش فیلم‌ها، اطلاعات فرودگاه و.... همچنین مختص اعداد، امکانات ویژه‌ای وجود دارد مانند بازه (۷۰...۸۰)، دماها، واحدهای پول و تبدیل اینها به هم، عبارات محاسباتی (\tan 30 + \ln y^3 ) و... ترتیب قرارگرفتن نتایج جستجوی گوگل بستگی به عاملی به نام رنک (به انگلیسی: Rank) صفحه دارد. جستجوی گوگل با به کاربردن عملگرهای جبر بولی مانند شمول و عدم شمول گزینه‌های زیادی را برای کاربران قابل تنظیم کرده‌است.(به انگلیسی: Advanced search)







بین‌المللی

گوگل به زبان‌ها و دامنه‌های مختلفی فعالیت می‌کند.

آفریکانس
آلبانیایی
آمهاری
عربی
آرامی
آذربایجانی
باسکی
بلاروسی
بنگالی
بیهاری
بوسنیایی
زبان برتون
بلغاری
خمر
زبان کاتالان
چینی (ساده)
چینی (سنتی)
زبان کرسی
کرواتی
چک



دانمارکی
زبان آلمانی
انگلیسی
اسپرانتو
استونیایی
فارویی
فیلیپینی
فنلاندی
فرانسوی
فریسی غربی
گالیشی
گرجی
آلمانی
یونانی
گوارانی
گجراتی
عبری
هندی
مجاری
ایسلندی



اندونزیایی
زبان اینترلینگوا
ایرلندی
ایتالیایی
ژاپنی
جاوه‌ای
کانارا
قزاقی
کره‌ای
کردی
قرقیزی
لائوسی
لاتین
لتونیایی
زبان لینگالایی
لیتوانیایی
مقدونی
مالایی
زبان مالایالم
مالتی



مائوری
مراتی
مولداویایی (زبان)
مغولی
نپالی
نروژی
نروژی (نو)
اوستی
زبان اوریه
پشتو
فارسی
لهستانی
پرتغالی (برزیل)
پرتغالی (پرتغال)
پنجابی
کویچوا
رومانیایی
رومنش
روسی
زبان گالیک اسکاتلندی



صربی
صربوکرواتی
زبان سوتو
زبان شونا
سندی
سینهالی
اسلواکیایی
اسلوونیایی
سومالی
اسپانیایی
زبان سوندایی
سواحیلی
سوئدی
تاگالوگ
تاجیک
تامیل
تاتار
تلوگو
تایلندی
زبان تیگرینیا
تونگا



ترکی
ترکمنی
زبان اکانی
اویغوری
اکراینی
اردو
ازبکی
ویتنامی
ولزی
خوزا
ییدیش
زبان یوروبایی
زولو







یاهو! جستجو

یاهو! جستجو (به انگلیسی: Yahoo! Search) یک موتور جستجوگر اینترنتی است که در ۱۹۹۵ توسط شرکت یاهو! راه‌اندازی شد. طبق آمار نت اپلیکیشنز (به انگلیسی: Net Applications) یاهو! جستجو دومین موتور جستجوگر پربازدید با ۶٬۴۲% بازدید موتورهای جویشگر پس از جستجوگر گوگل با ۸۵٬۳۵% میزان بازدید و بالاتر از موتور جویشگر بایدو با ۳٬۶۷% است.







زبان‌ها

یاهو! جستجو رابط جستجوگر خود را حداقل در ۳۸ زبان گوناگون و بین‌المللی در دسترس گذاشته‌است.
زبان‌ها

عربی
بلغاری
کاتالان
چینی ساده
چینی سنتی
کرواتی
چکی
دانمارکی
هلندی
انگلیسی
استونیایی
فنلاندی
فرانسوی
آلمانی



یونانی
عبری
مجارستانی
ایسلندی
اندونزیایی
ایتالیایی
ژاپنی
کره‌ای
لتونیایی
لیتوانیایی
مالایی
نروژی
فارسی
لهستانی



پرتغالی
رومانیایی
روسی
صربی
اسلواکیایی
اسلونیایی
اسپانیایی
سوئدی
تاگالوگ
تایلندی
ترکی استانبولی
ویتنامی






الگوریتم جستجوی عمق اول

در نظریه‌ٔ گراف، جستجوی عمق اول (به انگلیسی: Depth-first Search، به‌اختصار DFS) یک الگوریتم پیمایش گراف است که برای پیمایش یا جستجوی یک درخت یا یک گراف به کار می‌رود.

استراتژی جستجوی عمق اول برای پیمایش گراف، همانطور که از نامش پیداست "جستجوی عمیق‌تر در گراف تا زمانی که امکان دارد" است.







چگونه کار می‌کند؟

الگوریتم از ریشه شروع می‌کند (در گراف‌ها و یا درخت‌های بدون ریشه راس دلخواهی به عنوان ریشه انتخاب می‌شود) و در هر مرحله همسایه‌های رأس جاری را از طریق یال‌های خروجی رأس جاری به ترتیب بررسی کرده و به محض روبه‌رو شدن با همسایه‌ای که قبلاً دیده نشده باشد، به صورت بازگشتی برای آن رأس به عنوان رأس جاری اجرا می‌شود. در صورتی که همهٔ همسایه‌ها قبلاً دیده شده باشند، الگوریتم عقب‌گرد می‌کند و اجرای الگوریتم برای رأسی که از آن به رأس جاری رسیده‌ایم، ادامه می‌یابد. به عبارتی الگوریتم تا آنجا که ممکن است، به عمق بیشتر و بیشتر می‌رود و در مواجهه با بن بست عقب‌گرد می‌کند. این فرایند تامادامیکه همهٔ رأس‌های قابل دستیابی از ریشه دیده شوند ادامه می‌یابد.

همچنین در مسائلی که حالات مختلف متناظر با رئوس یک گراف‌اند و حل مسئله مستلزم یافتن رأس هدف با خصوصیات مشخصی است، جستجوی عمق اول به صورت غیرخلاق عمل می‌کند. بدین‌ترتیب که هر دفعه الگوریتم به اولین همسایهٔ یک رأس در گراف جستجو و در نتیجه هر دفعه به عمق بیشتر و بیشتر در گراف می‌رود تا به رأسی برسد که همهٔ همسایگانش دیده شده‌اند که در حالت اخیر، الگوریتم به اولین رأسی بر می‌گردد که همسایهٔ داشته باشد که هنوز دیده نشده باشد. این روند تا جایی ادامه می‌یابد که رأس هدف پیدا شود و یا احتمالاً همهٔ گراف پیمایش شود. البته پیاده‌سازی هوشمندانهٔ الگوریتم با انتخاب ترتیب مناسب برای بررسی همسایه‌های دیده نشدهٔ رأس جاری به صورتی که ابتدا الگوریتم به بررسی همسایه‌ای بپردازد که به صورت موضعی و با انتخابی حریصانه به رأس هدف نزدیک‌تر است، امکان‌پذیر خواهد بود که معمولاً در کاهش زمان اجرا مؤثر است.

از نقطه نظر عملی، برای اجرای الگوریتم، از یک پشته (stack) استفاده می‌شود. بدین ترتیب که هر بار با ورود به یک رأس دیده نشده، آن رأس را در پشته قرار می‌دهیم و هنگام عقب‌گرد رأس را از پشته حذف می‌کنیم. بنابراین در تمام طول الگوریتم اولین عنصر پشته رأس در حال بررسی است. جزئیات پیاده‌سازی در ادامه خواهد آمد.

وقتی در گراف‌های بزرگی جستجو می‌کنیم که امکان ذخیرهٔ کامل آنها به علت محدودیت حافظه وجود ندارد، در صورتی که طول مسیر پیمایش شده توسط الگوریتم که از ریشه شروع شده، خیلی بزرگ شود، الگوریتم با مشکل مواجه خواهد شد. در واقع این راه‌حل ساده که "رئوسی را که تا به حال دیده‌ایم ذخیره کنیم" همیشه کار نمی‌کند. چراکه ممکن است حافظهٔ کافی برای این کار نداشته باشیم. البته این مشکل با محدود کردن عمق جستجو در هر بار اجرای الگوریتم حل می‌شود که در نهایت به الگوریتم تعمیق تکراری (Iterative Deepening) خواهد انجامید.







الگوریتم

پیمایش با انتخاب رأس r به عنوان ریشه آغاز می‌شود. r به عنوان یک رأس دیده شده برچسب می‌خورد. رأس دلخواه r_1 از همسایگان r انتخاب شده و الگوریتم به صورت بازگشتی از r_1 به عنوان ریشه ادامه می‌یابد.از این پس در هر مرحله وقتی در رأسی مانند v قرار گرفتیم که همهٔ همسایگانش دیده شده‌اند، اجرای الگوریتم را برای آن رأس خاتمه می‌دهیم. حال اگر بعد از اجرای الگوریتم با ریشهٔ r_1 همهٔ همسایگان r برچسب خورده باشند، الگوریتم پایان می‌یابد. در غیر این صورت رأس دلخواه r_2 از همسایگان r را که هنوز برچسب نخورده انتخاب می‌کنیم و جستجو را به صورت بازگشتی از r_2 به عنوان ریشه ادامه می‌دهیم. این روند تامادامیکه همهٔ همسایگان r برچسب نخورده‌اند ادامه می‌یابد.

البته پیمایش گراف برای تأمین هدفی صورت می‌گیرد. بر این اساس برای انعطاف پذیر ساختن الگوریتم در قبال کاربردهای مختلف، دو نوع عملیات preWORK و postWORK را به همراهِ بازدید از هر رأس یا یال انجام می‌دهیم، که preWORK در زمان برچسب خوردنِ رأسِ در حال بازدید، و postWORK بعد از بررسی هر یالِ خروجی از رأسِ در حال بازدید انجام خواهد شد. هر دوی این عملیات وابسته به هدفِ استفاده از الگوریتم، مشخص خواهند شد.

الگوریتم بازگشتی جستجوی اول عمق به صورت زير است. آرايه يک بعدی Visited تعيين می کند آيا راسی قبلاً ملاقات شده است يا خير





الگوریتم جستجوی اول سطح

در نظریهٔ گراف، جستجوی اول سطح (به انگلیسی: Breadth-first Search، به‌اختصار: BFS) یکی از الگوریتم‌های پیمایش گراف است.

استراتژی جستجوی سطح اول برای پیمایش گراف، همانطور که از نامش پیداست «جستجوی سطح به سطح گراف» است.







چگونه کار می‌کند؟

الگوریتم از ریشه شروع می‌کند (در گراف‌ها و یا درخت‌های بدون ریشه رأس دلخواهی به عنوان ریشه انتخاب می‌شود) و آن را در سطح یک قرار می‌دهد. سپس در هر مرحله همهٔ همسایه‌های رئوس آخرین سطح دیده شده را که تا به حال دیده نشده‌اند بازدید می‌کند و آنها را در سطح بعدی می‌گذارد. این فرایند زمانی متوقف می‌شود که همهٔ همسایه‌های رئوس آخرین سطح قبلاً دیده شده باشند. همچنین در مسائلی که حالات مختلف متناظر با رئوس یک گراف‌اند و حل مسئله مستلزم یافتن رأس هدف با خصوصیات مشخصی است که در عین حال در بین همهٔ رئوس هدف با آن خصوصیات به ریشه نزدیک‌ترین باشد، جستجوی سطح اول به صورت غیرخلاق عمل می‌کند. بدین ترتیب که الگوریتم هر دفعه همهٔ همسایه‌های یک رأس را بازدید کرده و سپس به سراغ رأس بعدی می‌رود و بنابراین گراف سطح به سطح پیمایش خواهد شد. این روند تا جایی ادامه می‌یابد که رأس هدف پیدا شود و یا احتمالاً همهٔ گراف پیمایش شود. براساس آنچه گفته شد پیاده‌سازی هوشمندانهٔ الگوریتم آنقدر مؤثر نخواهد بود.

از نقطه نظر عملی، برای پیاده‌سازی این الگوریتم از صف استفاده می‌شود. بدین ترتیب که در ابتدا ریشه در صف قرار می‌گیرد. سپس هر دفعه عنصر ابتدای صف بیرون کشیده شده، همسایگانش بررسی شده و هر همسایه‌ای که تا به حال دیده نشده باشد به انتهای صف اضافه می‌شود. جزئیات پیاده‌سازی در ادامه خواهد آمد.







الگوریتم

پیاده‌سازی این الگوریتم مشابه پیاده‌سازی جستجوی عمق اول است با این تفاوت که به جای پشته از صف استفاده می‌شود. در این جا نیز مانند جستجوی عمق اول، preWORK را برای انعطاف بیشتر الگوریتم در نظر می‌گیریم که در زمان بررسی کردن هر رأس خارج شده از صف انجام می‌شود.

الگوريتم جستجوی اول سطح به صورت زير است. آرايه Visited برای تعيين رئوس ملاقات شده بکار می رود. از يک صف برای نگهداشتن رئوس مجاور استفاده می شود. هر بار که راسی ملاقات می شود کليه رئوس مجاور آن در صف اضافه می شود. پيمايش از راسی که از صف برداشته می شود ادامه پيدا می کند.





مرتب‌سازی دایره‌ای

مرتب سازی دایره‌ای (به انگلیسی: Cycle sort) یا مرتب‌سازی درجا یا الگریتم مرتب‌سازی ناپایدار، یک مرتب سازی مقایسه‌ای که تئوری خوبی از نظر تعداد عناصر نوشته‌شده در آرایهٔ اصلی است، بر خلاف تمام الگوریتم‌های مرتب‌سازی. این بر اساس ایده‌ای است که جایگشت می‌تواندفاکتوری برای مرتب سازی باشد، که به صورت جداگانه چرخش برای بدست آمدن نتیجه ایجاد شود.

بر خلاف تمام الگوریتم‌های نزدیک به آن، داده‌ها در جای دیگر آرایه به سادگی نوشته نمی‌شوندتا آن‌ها را از عملیات خارج کنیم. هر مقداردهی در زمان صفر صورت می‌گیرد اگر درآن زمان در مکان درست خودش موجود باشد، ویا در جای درس در یک زمان نوشته می‌شود. این مسابقه نیازمند دوباره کاری کمتری برای مرتب‌سازی درجا است. کم کردن تعداد نوشتن‌ها زمانی که تعداد زیادی از داده‌ها را قرار است که ذخیره کنیم بسیار سودمند است، مانند EEPROM‌ها یا Flash memory که نوشتن عمر مفید دستگاه را کاهش می‌دهد. الگوریتم: الگوریتم زیر پیدا می‌کند با چرخش و دوراندن آن و نتیجهٔ مرتب شده را به ما می‌دهد. توجه داشته‌باشید که range(a, b) از مقدار a تا b – 1 است.





جستجوی ابتدا بهترین

جستجوی بهترین ابتدا (best-first search) یک الگوریتم جستجو است که یک گراف را با بسط دادن محتمل‌ترین نود که بنابر قوانین خاص انتخاب می‌شوند پیمایش می‌کند.

این نوع جستجو را به عنوان تخمین احتمال انتخاب نود N به وسیلهٔ heuristic evaluation function که به صورت کلی، ممکن است بر پایه توصیف N، توصیف هدف، اطلاعات جمع اوری شده به وسیلهٔ جستجو تا ان نقطه و هر گونه اطلاعات اضافی در زمینهٔ مساله توصیف می‌کند.

بعصی از نویسندگان از جستجوی اولویت بهترین‌ها استفاده می‌کنند تا به طور خاص به یک جستجو با یک اشاره کنند که تلاش می‌کند تا پیش‌بینی کند که چقدر پایان یک مسیر به راه حل نزدیکتر است، بنابر این ان مسیرهایی که نزدیکتر به جواب هستند اول بسط داده شوند. الگوریتم جستجوی یک نمونه از الگوریتم بهترین‌ها-اول است. الگوریتم بهترین‌ها-اول معمولاً برای پیدا کردن پیدا کردن مسیر در جستجوهای ترکیبی استفاده می‌شود.
6:27 pm

دسترسی
رایج‌ترین زبان برای ارتباطات در اینترنت زبان انگلیسی است. این ممکن است ناشی از زادگاه اینترنت و همچنین نقش زبان انگلیسی به عنوان زبان بین‌المللی باشد. ناتوانی رایانه‌های اولیه - که اغلب در امریکا ساخته می‌شدند - در پردازش نویسه (کاراکتر)های به جز گونه انگلیسی الفبای لاتین نیز ممکن است با این موضوع مرتبط باشد. پس از انگلیسی(۲۸٪ از بازدیدکنندگان وب)، پرخواهان ترین زبانها در وب جهان گستر عبارنتد از : چینی ۲۳٪، اسپانیایی ۸٪، ژاپنی ۵٪، پرتغالی و آلمانی (هر کدام ۴٪)، عربی و فرانسه و روسی (هرکدام ۳٪)و کره‌ای ۳٪.بر پایه منطقه، ۴۲٪ از کاربران اینترنت در آسیا، ۲۴٪ در اروپا،۱۴٪ در امریکای شمالی، ۱۰٪ در امریکای لاتین و کارائیب، ۵٪ در آفریقا، ۳٪ در خاورمیانه و ۱٪ در استرالیا/اقیانوسیه.





فناوریهای اینترنت در سالهای اخیر بویژه در زمینه استفاده از یونیکد، به حد کافی گسترش یافته‌اند و امکانات مناسبی برای ارتباط در بسیاری از زبانهای دنیا در دسترس می‌باشد، اما همچنان مسائلی مانند موجیباکه (نمایش نادرست برخی نویسه‌های یک زبان) باقی هستند.

روشهای معمول دسترسی به اینترنت در خانه‌ها شامل دسترسی با شماره‌گیری (dial-up)، خطوط زمینی پهن باند(از طریق کابل کواکسیال، فیبر نوری و یا سیم مسی)، وای-فای (Wi-Fi)، ماهواره و فناوری ۳G تلفن همراه می‌باشد. اماکن عمومی که می‌توان در آنها از اینترنت استفاده نمود شامل کتابخانه‌ها و کافی‌نتها که در آنها رایانه‌هایی با اتصال به اینترنت مهیاست.همچنین کیوسکهای اینترنت در بسیاری از اماکن عمومی مانند سالن فرودگاه و کافی شاپها موجودند که بعضی از آنها برای استفاده‌های کوتاه و سرپایی در نظرگرفته شده‌اند.واژه‌های گوناگونی برای نامیدن این ترمینالها به کار می‌رودف از جمله : کیوسک عمومی اینترنت و یا پایانه دسترسی عمومی.

این ترمینالها به گستردگی برای کاربردهایی چون رزرو بلیط، سپرده گذاری بانکی، پرداخت برخط مورد استفاده قرار می‌گیرد. وای-فای(Wi-Fi) دسترسی بی سیم به شبکه‌های رایانه‌ای و در نتیجه به اینترنت را فراهم می‌کند. نقاط داغ (Hotspots) به مکانهایی گفته می‌شود که دسترسی به اینترنت بی سیم در آن نقاط امکانپذیر است و کاربران می‌توانند با لپ تاپ و یا دستیار دیجیتال شخصی(PDA) خود به اینترنت متصل شوند. گاهی این سرویس‌های بیسیم برای عموم و یا حداقل برای مشتریان رایگان ارائه می‌شود. یک نقطه داغ محدوده مکانی مشخصی را شامل می‌شود مثل محوطه یک دانشگاه، پارک و یا حتی سراسر نقاط یک شهر. سرویسهای تجاری Wi-Fi که کل شهر را پوشش می‌دهند هم اکنون در شهرهای لندن، وین، تورنتو، سانفرانسیسکو، فیلادلفیا، شیکاگو و پیتسبورگ ارائه می‌شوند. در این شهرها مشترکین می‌توانند در هر نقطه‌ای از شهر به شبکه وای-فای متصل شوند
.علاوه بر وای-فای، آزمایشهایی نیز در زمینه شبکه‌های بی سیم متحرک اختصاصی مانن ریکوچت و سرویسهای داده‌ای پرسرعت بر روی تلفنهای همراه، و شبکه‌های بی سیم ثابت انجام شده‌است. تلفنهای همراه پیشرفته مثل تلفن‌های همراه هوشمند (Smartphone) همگی با قابلیت اتصال به اینترنت از طریق شبکه تلفن عرضه می‌شوند. مرورگرهای وب مثل اپرا معمولاً نسخه‌ای برای این دستگاههای جیبی پیشرفته دارند.



آثار اجتماعی

اینترنت به دلیل خصوصیاتی چون قابلیت استفاده و دسترسی گسترده آن، اشکال کاملاً جدیدی از تعاملات، فعالیتها، و سازماندهی‌های اجتماعی را پدید آورده‌است. وبگاه‌های شبکه‌های اجتماعی چون فیس‌بوک، توییتر و مای‌اسپیس روشهای جدیدی برای معاشرت و تعامل خلق کرده‌اند. کاربران این سایتها قادرند اطلاعات گوناگونی به صفحات خود بیفزایند، علایق مشترکی را دنبال کنند و به دیگران مرتبط شوند. وبگاه‌هایی مثل لینکداین به پرورش ارتباطات حرفه‌ای و تجاری می‌پردازد. یوتیوب و فلیکر هم در زمینه ویدیوها و تصاویر کاربران تخصص دارند.

دهه اول سده بیست و یکم، شاهد پرورش اولین نسلی است که در شرایطی رندگی می‌کنند که اینترنت به گستردگی در دسترس می‌باشد. این مسایل و نگرانی‌هایی را به دنبال دارد از جمله مسئله حفظ حریم خصوصی و هویت و توزیع غیر مجاز مواردی که تحت قانون کپی رایت محافظت می‌شوند. این بومیان دیجیتال با انبوهی از مسایلی مواجه می‌شوند که در مورد نسلهای قبلی وجود نداشت.

اینترنت کاربرد جدیدی به عنوان بک ابزار سیاسی یافته‌است مه این منجر به سانسوراینترنت می‌شود. نمونه استفاده سیاسی از اینترنت، مبارزه انتخاباتی هاوارد دین در سال ۲۰۰۴ در ایالات متحده بود که به دلیل جمع آوری کمکهای مردمی از طریق اینترنت شایان توجه بود. بسیاری از گروههای سیاسی از اینترنت برای سازماندهی در انجام ماموریت خود استفاده می‌کنند. برخی از دولتها مانند ایران، کره شمالی، میانمار، چین وعربستان، آنچه را که مردم می‌توانند از طرق اینترنت ببینند، به ویژه در مورد مسایل سیاسی و مذهبی محدود می‌نمایند.
این کار از طریق نرم‌افزارهایی که دامنه و محتوا را فیلتر می‌کنند صورت می‌پذیرد. در نروژ، دانمارک، فنلاند و سوئد، ارائه دهندگان اصلی خدمات اینترنت به صورت داوطلبانه و احتمالاً برای اجتناب از قانون شدن فیلترینگ، قبول کرده‌اند که دسترسی به سایتهایی که توسط مقامات مسوول لیست شده‌است را محدود نمایند. اگرچه قرار بر این است که این آدرسهای ممنوع شده تنها شامل وبگاههای هرزه نگاری کودکان باشد، اما محتوای این لیست مخفی است.

در بسیاری از کشورها مانند ایالات متحده امریکا، اگرپه قوانینی در ممنوعیت پخش موارد دربردارنده هرزه نگاری کودک تصویب نموده‌اند اما استفاده از نرم افرارهای فیلترینگ را اجباری نکرده‌اند. نرم‌افزارهای تجاری و یا رایگان بسیاری تحت عنوان نرم‌افزار کنترل محتوا در دسترس هستند که کاربران از طریق آنها می‌توانند وبگاههای مستهجن را در رایانه شخصی و یا شبکه محلی مسدود نمود تا از دسترسی کودکان به مواد هرزه نگاری و یا خشونت نگاری جلو گیری نمود.

اینترنت از آغاز پیدایش همواره وسیله مناسبی برای فعالیتهای تفریحی بوده‌است. بسیاری از انجمن‌های اینترنتی بخشهایی برای بازی و ویدیوهای خنده دار و کارتونهای کوتاه در قالب انیمیشن‌های فلش(Flash) دارند. بیش از ۶ میلیون نفر در اینترنت از وب نوشت‌ها و تخته‌های پیام برای برقراری ارتباط استفاده می‌کنند. صنایع هرزه نگاری و قمار از اینترنت سود می‌جویند تا وبگاههایی بسازند که منبع کلان تبلیغات برای سایر وبگاهها می‌باشند.
اگرچه بسیاری از دولتها برای محدود سازی استفاده این دو صنعت ازاینترنت تلاش کرده‌اند اما در جلوگیری از گسترش محبوبیت آنها چندان موفق نبوده‌اند.یکی از فعالیتهای تفریحی اصلی در اینترنت، بازیهای چند نفره است. این شکل تفریح اجتماعاتی را بوجود می‌آورد که در آن افراد از هر سن و نژادی از دنیای بازیهای چندنفره کامپیوتری لذت می‌برند. اگرچه بازیهای برخط از سال ۱۹۷۰ وجود داشته‌اند،

اما گونه مدرن این بازیها با خدمات اشتراکی مانند گیم‌اسپای و MPlayer آغاز شد. غیر مشترکین محدود به بازیهای خاص و یا زمان بازی خاص بودند. بسیاری از مردم از اینترنت برای دسترسی و بارگیری(download) موسیقی و فیلم و سایر آثار استفاده می‌کنند. این خدمات به هر دو صورت رایگان و پولی، با استفاده ازسرورهای مرکزی و یا فناوریهای نظیر-به-نظیر توزیع شده ارائه می‌شوند.برخی از این منابع توجه بیشتری نسبت به سایرین در زمینه حقوق مولفین اصلی نشان دادهاند.

بسیاری از مردم از اینترنت برای دسترسی به اخبار، پیش بینی آب وهوا، گزارشهای ورزشی و جستجوی مطالب در مورد علاقه‌مندیهای خود استفاده می‌کنند. آنها از گپ برخط، پیام رسان فوری و پست الکترونیک برای در تماس بودن با دوستان خود در سراسر دنیا و به شیوه‌ای شبیه به دوست مکاتبه‌ای که در قدیم رواج داشت، استفاده می‌کنند. اینترنت شاهد شمار رو به افزایش میزکارهای وب که در آن کاربران به فایلها و تنظیمات خود دسترسی پیدا می‌کنند، بوده‌است."کم کاری سایبری" (Cyberslacking) محل اتلاف جدی منابع سازمانهاست. کارمندان انگلیسی به طور میانگین ۵۷٪ از وقت خود را به وب گردی در حین کار می‌پردازند.



تاثیرات ذهنی
بر روی آثار اینترنت بر مغز انسان مطالعات زیادی انجام شده‌است. نیکلاس کار(به انگلیسی: Nicholas Carr) ادعا می‌کند که اینترنت تفکر عمیق را که عامل خلاقیت واقعی است کاهش می‌دهد. او همچنین می‌گوید که پیوندهای فرامتن و تحریک بیش از حد، به این معنی است که مغز باید بیشتر توجهش را بر روی تصمیمات کوتاه متمرکز کند. او همچنین بیان می‌کند که اینترنت مغز را غرق در اندیشه می‌کند که باعث آسیب رسیدن به حافظه بلند مدت می‌گردد. شمار فراوان محرک‌ها در اینترنت منجر به بار شناختی(Cognitive Load) سنگینی برای مغز می‌شود که یادآوری هرچیزی را مشکل می‌سازد.استیون پینکر (به انگلیسی: Steven Pinker)، روانشناس، نظری مخالف دارد. او به این نکته اشاره می‌کند که افراد بر روی آنچه انجام می‌دهند کنترل دارند وبنابراین این پژوهش و استدلال هرگز طبیعت انسان را در نظر نداشته‌است. او می‌گوید "تجربه ظرفیتهای پردازش اطلاعات مغز را عوض نمی‌کند" و ادعا می‌کند که اینترنت باعث باهوشتر شدن انسانها شده‌است.




تاریخ اینترنت

اتحاد جماهیر شوروی آن زمان موشکی با نام «اسپونیک» (Spotnik) را به فضا می‌فرستد و نشان می‌دهد دارای قدرتی است که می‌تواند شبکه‌های ارتباطی آمریکا را توسط موشک‌های بالستیک و دوربرد خود از بین ببرد. آمریکایی‌ها در پاسخگویی به این اقدام روس‌ها، موسسه پروژه‌های تحقیقی پیشرفته “ARPA” را به‌وجود آوردند. هدف از تاسیس چنین موسسه‌ای پژوهش و آزمایش برای پیدا کردن روشی بود که بتوان از طریق خطوط تلفنی، کامپیوترها را به هم مرتبط نمود. به طوری که چندین کاربر بتوانند از یک خط ارتباطی مشترک استفاده کنند. در اصل شبکه‌ای بسازند که در آن داده‌ها به صورت اتوماتیک بین مبدا و مقصد حتی در صورت از بین رفتن بخشی از مسیرها جابه‌جا و منتقل شوند. در اصل هدف “ARPA” ایجاد یک شبکه اینترنتی نبود و فقط یک اقدام احتیاطی در مقابل حمله احتمالی موشک‌های اتمی دوربرد بود. هر چند اکثر دانش امروزی ما درباره شبکه به‌طور مستقیم از طرح آرپانت “ARPPA NET” گرفته شده‌است. شبکه‌ای که همچون یک تار عنکبوت باشد و هر کامپیوتر ان از مسیرهای مختلف بتواند با همتایان خود ارتباط دااشته باشد واگر اگر یک یا چند کامپیوتر روی شبکه یا پیوند بین انها از کار بیفتادبقیه باز هم بتوانستند از مسیرهای تخریب نشده با هم ارتباط بر قرار کنند.

این ماجرا با وجودی که بخشی از حقایق به‌وجود آمدن اینترنت را بیان می‌کند اما نمی‌تواند تمام واقعیات مربوط به آن را تشریح کند. باید بگوییم افراد مختلفی در تشکیل اینترنت سهم داشته‌اند آقای “Paul Baran” یکی از مهمترین آنهاست. آقای باران که در دوران جنگ سرد زندگی می‌کرد می‌دانست که شبکه سراسری تلفن آمریکا توانایی مقابله با حمله اتمی شوروی سابق را ندارد. مثلاً اگر رییس جمهور وقت آمریکا حمله اتمی متقابل را دستور دهد، باید از یک شبکه تلفنی استفاده می‌کرد که قبلاً توسط روس‌ها منهدم شده بود. در نتیجه طرح یک سیستم مقاوم در مقابل حمله اتمی روس‌ها ریخته شد.آقای باران (Baran) تشکیل و تکامل اینترنت را به ساخت یک کلیسا تشبیه کرد و معتقد بود، طی سال‌های اخیر هر کس سنگی به پایه‌ها و سنگ‌های قبلی بنا اضافه می‌کند و انجام هر کاری وابسته به کارهای انجام شده قبلی است. بنابراین نمی‌توان گفت، کدام بخش از کار مهمترین بخش کار بوده‌است و در کل پیدایش اینترنت نتیجه کار و تلاش گروه کثیری از دانشمندان است. داستان پیدایش اینترنت با افسانه و واقعیت در هم آمیخته شده‌است.

در اوایل دهه ۶۰ میلادی آقای باران طی مقالاتی پایه کار اینترنت امروزی را ریخت. اطلاعات و داده‌ها به صورت قطعات و بسته‌های کوچکتری تقسیم و هر بسته با آدرسی که به آن اختصاص داده می‌شود به مقصد خاص خود فرستاده می‌شود. به این ترتیب بسته‌ها مانند نامه‌های پستی می‌توانند از هر مسیری به مقصد برسند. زیرا آنها شامل آدرس فرستنده و گیرنده هستند و در مقصد بسته‌ها مجدداً یکپارچه می‌شوند و به صورت یک اطلاعات کامل درمی‌آیند.

آقای باران (Baran) طی مقالاتی اینچنینی ساختمان و ساختار اینترنت را پیش‌گویی کرد. او از کار سلول‌های مغزی انسان به عنوان الگو استفاده کرد، او معتقد بود: وقتی سلول‌های مغزی از بین بروند، شبکه عصبی از آنها دیگر استفاده نمی‌کند و مسیر دیگری را در مغز انتخاب می‌کند. از دیدگاه وی این امکان وجود دارد که شبکه‌ای با تعداد زیادی اتصالات برای تکرار ایجاد شوند تا در صورت نابودی بخشی از آن، همچنان به صورت مجموعه‌ای به هم پیوسته کار کند. تا نیمه دهه ۶۰ میلادی کسی به نظرات او توجه‌ای نکرد. تا اینکه در سال ۱۹۶۵ نیروی هوایی آمریکا و«آزمایشگاه‌های بل» به نظرات او علاقه‌مند شدند و پنتاگون با سرمایه‌گذاری در طراحی و ساخت شبکه‌ای براساس نظریات او موافقت کرد.

ولی آقای باران (Baran) بنابر دلایلی حاضر با همکاری با نیروی هوایی آمریکا نشد. در این میان دانشمندی با نام تیلور (Tailon) وارد موسسه آرپا (ARPA) شد. او مستقیماً به آقای هرتسفلد رییس موسسه پیشنهاد کرد: (ARPA) آرپا هزینه ایجاد یک شبکه آزمایشی کوچک با حداقل چهار گره را تامین کند که بودجه آن بالغ بر یک میلیون دلار می‌شد. با این پیشنهاد تیلور تجربه‌ای را آغاز کرد که منجر به پیدایش اینترنت امروزی شد. او موفق شد در سال ۱۹۶۶، دو کامپیوتر را در شرق و غرب آمریکا به هم متصل کند. با این اتصال انقلابی در نحوه صدور اطلاعات در دنیای ارتباطات رخ داد که نتیجه آن را امروز همگی شاهد هستیم. این شبکه به بسته‌هایی (packet) از داده‌ها که به وسیله کامپیوترهای مختلف ارسال می‌شدند اتکا داشت. پس از انکه ازمایشها سودمندی انرا مشخص کردند سایر بخش‌های دولتی و دانشگاهها پژوهشی تمایل خود را به وصل شدن به ان اعلام کردند . ارتباطات الکترونیکی به صورت روشی موثر برای دانشمندان و دیگران به منظور استفاده مشترک از داده‌ها در امد. در همان زمان که ARPAnet در حال رشد بود تعدادی شبکه پوشش محلی (LAN) در نقاط مختلف آمریکا به وجود امد. مدیران LANها نیز به وصل کردن کامپیوترهای شبکه‌های خود به شبکه‌های بزرگتر اقدام کردند . پروتوکل اینترنت ARPAnet IP زبان استاندارد حکمفرما برای برقراری ارتباط کامپیوترهای شبکه‌های مختلف به یکدیگر شد.تاریخ تولد اینترنت به طور رسمی اول سپتامبر ۱۹۶۹ اعلام شده‌است. زیرا که اولین “IMP” در دانشگاه “UCLA” واقع در سانتاباربارا در این تاریخ بارگذاری شده‌است.

از اوایل دهه ۱۹۹۰ رشد استفاده از اینترنت به صورت تصاعدی افزایش یافت . یکی از علل چنین استقبالی ابزار جستجویی مانند Gopher و archie بوده‌است اما اینها در سال ۱۹۹۱ تحت تاثیر word wide web قرار گرفتند که به وسیله CERN یا ازمایشگاه فیزیک هسته‌ای اروپا ساخته شد . با ان که اینترنت از ابتدا طوری بود که مبادله اطلاعات برای تازه واردان بسیار ساده باشد. بزرگترین جهش در وب در سال ۱۹۹۳ با عرضه نرم‌افزار موزاییک mosaic که نخستین برنامه مرورگر وب گرافیکی بود به وجود امد. برنامه موزاییک محصول تلاش دانشجویان و استادان بخش "مرکز ملی کاربردهای ابر کامپیوتر " در دانشگاه ایلینویز آمریکا بود. برای نخستین بار موزاییک امکانات اشاره و کلیک (به وسیله موش) را فراهم کرد. کاربران می‌توانستند صفحات وب (web page) یا مجموعه‌ای از متن و گرافیک را کنار هم بگذارند تا هر کسی که میخواست انها را بتواند روی اینترنت ببیند. وقتی با موش روی کلمه‌ها یا تصاویر خاصی که hyper link نامیده می‌شد کلیک می‌کردند برنامه موزاییک به طور خود کار یک صفحه دیگر باز می‌کرد که به کلمه یا تصویر خاص و کلیک شده اختصاص داشت. بهترین بخش این سیستم انجا بود که hyper linkها می‌توانستند به صفحاتی روی همان کامپیوتر یا هر کامپیوتر دیگر اینترنت با خدمات وب اشاره کنند. صفحات وب هر روز متولد می‌شدند و مفهوم موج سواری یا surfing روی وب متولد شد. اواسط سال ۱۹۹۴ سه میلیون کامپیوتر به اینترنت وصل شده بود و در ان هنگام اجرای عملیات اهسته نشده بود. صفحات جدید وب که شامل همه چیز از اسناد دولتی تا مدارک شرکت‌ها و مدل‌های جدید لباس بود در سراسر دنیا چندین برابر شد . موزاییک و جانشینان ان مانند navigator محصول شرکت " نت اسکیپ " اینترنت را از قلمرو علمی به میان مردم اوردند. طبق اخرین امار ۵۱ درصد کاربران بعد از سال ۱۹۹۵ وارد این محیط شده‌اند. میلیون‌ها انسانی که از اینترنت استفاده می‌کنند نیازی ندارند که نکات فنی مانند TCP/IP را بدانند . امروزه شرکتهای خدمات دهنده اینترنت یا ISP این کار را به عهده دارند.رشد روز افزون ان و ساده تر شدن استفاده ان همچنان ادامه دارد . هر چه تعداد مردم بیشتری به اینترنت رجوع کنند تعداد شرکت‌های سازنده برنامه‌های اینترنت بیشتر می‌شود.با انکه بعضی از عاشقان اینترنت ان را نوعی شیوه زندگی می‌دانند. در نظر بیشتر کاربران منبع سرگرمی اطلاعات است ولی بیشترین مصرف ان پست الکترونیکی یا همان email است که یکی از ابزارهای ارتباطی کار امد به شمار می‌رود. پیامها از کامپیوتری به کامپیوتر دیگر با سرعت پرواز می‌کنند و منتظر میمانند تا شخص فرصت خواندن انها را پیدا کند . وب امکانات خوبی برای کپی از نرم‌افزارهای مجاز از لحاظ کپی فراهم میسازد. وقتی که می‌بینیم که در مدت کوتاهی اینترنت به چنین رشدی نایل آمده است، مطمئناً دشوار خواهد بود که آینده او را پیش بینی کنیم. طبق نظر کارشناسان ماهانه ۱۰ درصد به تعداد کاربران اینترنت افزوده می‌شود ولی تعداد دقیق کاربران که روزانه از آن استفاده می‌کنند مشخص نیست. هرچند که پاره‌ای از کارشناسان تعداد آنها را تا ۹۰۰ میلیون نفر حدس می‌زنند. تعداد رسمی کاربران اینترنتی را در سال ۲۰۰۰ کارشناسان ۵۰۰ میلیون نفر اعلام کرده بودند.

قطعاً در سال‌های آینده تحولات شگرفی را در زمینه شبکه‌های اینترنتی شاهد خواهیم بود. به‌وسیله اینترنت انسان به راه‌های جدیدی دست پیدا کرد. در کنار این شانس جدید توسط اینترنت، باید بگوییم خطراتی نیز در رابطه با سیاست و اقتصاد و علم به دنبال خواهد داشت. فرم امروزی اینترنت مدیون همکاری تمام کاربران اینترنت در سرتاسر گیتی است که با این تصور که اطلاعات موجود در سطح جهان را به راحتی با یکدیگر مبادله کنند. این تصوری بود که آقای باران(Baran) از اینترنت داشت و امیدواریم در آینده نیز تکامل اینترنت در این مسیر باشد.

ساعت : 6:27 pm | نویسنده : admin | مطلب قبلی | مطلب بعدی
دوستانه | next page | next page