هوش مصنوعی

زیر بنای هوش مصنوعی:
در این فصل و فصل بعدی‌‌، تاریخچه مختصری از AI را ذکر می‌کنیم. اگر چه AI زمینه تازه‌ای است ، اما بسیاری از ایده‌ها، نقطه نظرات و تکنیکها را از قوانین دیگر به ارث برده است. پس از گذشت 2000 سال از پیدایش فلسفه، تئوریهای بسیاری در رابطه با استدلال و یادگیری بوجود آمده‌اند؛ با این تصور که ذهن توسط عملیات یک سیستم فیزیکی جانشین می‌شود . پس از گذشت 400 سال از علم ریاضی، ما تئوریهایی رسمی در مورد منطق، احتمال، تصمیم‌گیری و محاسبه‌پذیری داریم. از طریق علم روانشناسی ابزاری داریم که می‌توانیم در مورد ذهن انسان تحقیق کنیم و یک زبان علمی داریم که قادر است تئوریهای نتیجه شده را بیان کند. از زبان‌شناسی، تئوریهایی در رابطه با ساختار و مفهوم زبان داریم. بالاخره، از علم کامپیوتر، ابزارهایی داریم که با آن می‌توانیم AI را به واقعیت تبدیل کنیم.
مشابه با هر تاریخی، AI نیز مجبور شده است تا بر روی تعداد محدودی از افراد و حوادث تمرکز کرده و از بقیه که شاید مهم هم بوده باشند، غافل بماند. می‌خواهیم با مرتب کردن حوادث داستان چگونگی پیدایش قسمتهای مختلف AI مدرن را بازگو کنیم. مطمئناً خواستار آن نیستیم که عقیده جدیدی را مطرح کنیم، اگر چه روشی که بر پایه آن مولفه‌ها تماماً در کنار هم کار خواهند کرد به سوی ماحصل نهایی خود یعنی AI مطرح می‌گردند.

زیر بنای هوش مصنوعی:
در این فصل و فصل بعدی‌‌، تاریخچه مختصری از AI را ذکر می‌کنیم. اگر چه AI زمینه تازه‌ای است ، اما بسیاری از ایده‌ها، نقطه نظرات و تکنیکها را از قوانین دیگر به ارث برده است. پس از گذشت 2000 سال از پیدایش فلسفه، تئوریهای بسیاری در رابطه با استدلال و یادگیری بوجود آمده‌اند؛ با این تصور که ذهن توسط عملیات یک سیستم فیزیکی جانشین می‌شود . پس از گذشت 400 سال از علم ریاضی، ما تئوریهایی رسمی در مورد منطق، احتمال، تصمیم‌گیری و محاسبه‌پذیری داریم. از طریق علم روانشناسی ابزاری داریم که می‌توانیم در مورد ذهن انسان تحقیق کنیم و یک زبان علمی داریم که قادر است تئوریهای نتیجه شده را بیان کند. از زبان‌شناسی، تئوریهایی در رابطه با ساختار و مفهوم زبان داریم. بالاخره، از علم کامپیوتر، ابزارهایی داریم که با آن می‌توانیم AI را به واقعیت تبدیل کنیم.
مشابه با هر تاریخی، AI نیز مجبور شده است تا بر روی تعداد محدودی از افراد و حوادث تمرکز کرده و از بقیه که شاید مهم هم بوده باشند، غافل بماند. می‌خواهیم با مرتب کردن حوادث داستان چگونگی پیدایش قسمتهای مختلف AI مدرن را بازگو کنیم. مطمئناً خواستار آن نیستیم که عقیده جدیدی را مطرح کنیم، اگر چه روشی که بر پایه آن مولفه‌ها تماماً در کنار هم کار خواهند کرد به سوی ماحصل نهایی خود یعنی AI مطرح می‌گردند.
 
فلسفه (428 قبل از میلاد مسیح تاکنون ):
مطمئنترین مشخصه سنت فلاسفه اروپایی شامل نوشتن پی‌نوشتهایی بر روی نظریات افلاطون است. ما با تولد افلاطون در سال 428  قبل از میلاد آ‌غاز می‌کنیم. نوشته‌های او در مورد سیاست، ریاضیات، فیزیک، نجوم و شاخه‌های متعددی از علم فلسفه بوده است. افلاطون و استادش سقراط و شاگردش ارسطو همگی پایه‌های تفکر و فرهنگ غرب را تشکیل می‌دهند. فیلسوف Deryfus Herbert می‌گوید که "داستان هوش مصنوعی در اصل در حدود سال 450 قبل از میلاد ‌آغاز شده است." زمانی که افلاطون گفتگویی را گزارش می‌کند که در آن سقراط از اپیکور می‌پرسد، "می‌خواهم بدانم که ویژگی تقوا چیست که تمامی اعمال را پرهیزگار می‌سازد...که من ممکن است آن را داشته باشم تا به کار بندم و از آن به عنوان استانداردی برای قضاوت اعمال شما و دیگر مردمان استفاده کنم." به عبارت دیگر، از سقراط الگوریتمی به منظور تشخیص تقوا از بی‌تقوایی خواسته شده است. ارسطو سعی کرد تا قوانینی که بر قسمت منطقی ذهن حاکم است را فرموله سازد. او سیستمی غیر رسمی از قیاس برای استدلال مناسب توسعه داد که در اساس اجازه می‌دهد بر پایه فرضیات اولیه نتایج به طور مکانیکی تولید شوند. ارسطو به این باور اعتقاد نداشت که تماماً قسمتهای ذهن توسط پردازشهای منطقی پوشیده شده و همچنین تصوری از استدلال شهودی داشت.
حال که ما ایده‌ای از مجموعه قوانینی که طرز کار ذهن را (قسمت کوچکی از آن) بیان می‌کنند، داریم، قدم بعدی در نظر گرفتن ذهن به عنوان سیستمی فیزیکی است. در اینجا باید منتظر رنه دکارت(1650-1596) برای بحث در مورد تمییز ذهن از ماده و مسائل مربوط به آن باشیم. یکی از مشکلات درک فیزیکی خالص ذهن آنست که اگر ذهن تنها با قوانین فیزیکی مدیریت شود به نظر می‌رسد که ذهن برای رها شدن جای کوچکی را ترک خواهد کرد و در این شرایط همانند سنگی خواهد بود که تصمیم گرفته به مرکز زمین سقوط کند. اگر چه دکارت مدافع سرسخت قدرت استدلال بود، همچنین طرفدار مکتب دوالیسم  نیز بود. او معتقد بود که قسمتی از ذهن (روح یا جان) که خارج از طبیعت قرار دارد، معاف از قوانین فیزیکی است. از سوی دیگر، او تصور نمود که حیوانات فاقد چنین کیفیت دوگانگی هستند، آنها را می‌توان همچون یک ماشین در نظر گرفت.
در مقابل دوالیسم ، ماتریالیسم  مطرح می‌شود که معتقد است تمامی جهان (شامل مغز و ذهن) مطابق قوانین فیزیکی عمل می‌کنند. ویلهم لایبنیز  (1716-1646) اولین کسی بود که موقعیت ماتریالیستی را به نتایج منطقی‌اش تبدیل کرد و ابزاری مکانیکی برای انجام عملیات منطقی ساخت. متأسفانه، فرموله نمودن منطق او چنان ضعیف بود که ماشین تولید مفهوم او نمی‌توانست نتایج جالبی تولید کند.
همچنین می‌توان وضعیت بینابینی را قبول کرد که در آن فرد قبول کند که ذهن پایه‌ای فیزیکی دارد، اما اینکه ذهن می‌تواند توسط پردازشهای فیزیکی تعریف شود را منکر شویم. بنابراین فرایندهای روانی و هوشیاری بخشی از دنیای فیزیکی هستند اما ذاتاًَ ناشناخته هستند یعنی ماوراء  ادراک منطقی قرار دارند. برخی از فلاسفه منتقد AI، دقیقاً این موقعیت را قبول کردند.
به استثنای این اعتراضات ممکن به اهداف AI، فلسفه عقیده‌ای را ایجاد نموده که ذهن به عنوان یک ابزار فیزیکی تصور شده و قانونمندانه توسط استدلال و دانش که در آن وجود دارد، کار می‌کند. مسئله بعدی ایجاد منبع دانش است . جنبش آزمون گرایان  با فرانسیس بیکن (1626-1561) آغاز شد و با شعار جان لاک (1704-1632) مفهوم یافت: "هیچ چیز قابل فهم نیست اگر ابتدا در حس نباشد." کتاب دیوید هیوم (1776-1711) با عنوان رساله‌ای از طبیعت انسان چیزی را پیشنهاد نمود که امروزه به عنوان اصل استقرا  شهرت یافته است. قوانین عمومی توسط تکرار ارتباطات بین عناصر آنها بوجود می‌آیند . این تئوری توسط برتراندراسل (1970-1872) شکل رسمی‌تری به خود گرفت، کسی که پایه‌گذار پوزیوتیزم منطقی است. این نظریه می‌گوید که تمامی دانشها می‌توانند بوسیله تئوریهای منطقی مرتبط شده بیان گردند، حتی جملات مشاهده‌ای که با ورودیهای حسی مطابقت دارند. تئوری تأیید  رودلف کارنپ و کارل همپل سعی دارد تا ارتباط طبیعی بین جملات مشاهده‌ای و تئوریهای عمومی‌تر را ایجاد نماید، به عبارت دیگر، تلاش می‌کنند تا دریابند چگونه دانش قادر است از تجربه اخذ گردد.
آخرین عنصر در تصویر فلسفه‌ای ذهن، ارتباط بین دانش و عمل است. این ارتباط چه شکلی خواهد داشت و چطور عملیات ویژه‌ای می‌توانند توجیه شوند؟ این سوالات برای AI حیاتی هستند چرا که تنها از طریق درک است که اعمال تصدیق می‌شوند و ما می‌توانیم پی ببریم که چطور عاملی ساخته می‌شود تا عملیاتش منطقی و قابل تصدیق باشد. ارسطو پاسخ مناسبی را در کتاب Nicomachean Ethics بیان می‌کند:
ما در مورد عاقبت و انتها نمی‌اندیشیم بلکه در مورد معانی فکر می‌کنیم. برای پزشک شفا دادن را، برای سخنران تشویق را، برای وکیل وضع قانون و برای هیچکس دیگر به عاقبت کار نمی‌اندیشیم. آنها عاقبت را در نظر می‌گیرند و فکر می‌کنند چگونه و با چه معانی به دست خواهد آمد، اگر آسان به نظر آید و به نحو احسن حاصل شود.
رهیافت ارسطو 2300 سال بعد توسط سیمون و نویل در برنامه GPS پیاده‌سازی شد و چیزی که آنها نوشتند:
روشهای اصلی GPSخاصیت شهودی آنالیز mean-ends را مجسم می‌کند. آنالیز mean-ends به وسیله توافق حس مشترک دنبال می‌شود:
من می‌خواهم پسرم را به دبستان ببرم. چه تفوتی میان خواستن و داشتن وجود دارد؟ یک نوع فاصله. چه چیزی فاصله را تغییر می‌دهد؟ اتومبیل من. اتومبیل من کار نمی‌کند. چه چیز لازم است تا آن کار کند؟ باطری تازه. باطریهای تازه کجا هستند؟ یک فروشگاه لوازم یدکی. من از فروشگاه لوازم یدکی می‌خواهم که یک باطری جدید برایم نصب کند اما فروشگاه خبر ندارد که من باطری لازم دارم. مشکل چیست؟ یک نوع ارتباط. چه چیزی باعث ارتباط می‌شود؟ یک تلفن و ... برو جلو.
این نوع تحلیل اشیا را بر حسب عملکرد آنها دسته‌بندی نموده و در اطراف آنها کارکرد مورد نیازشان نوسان نموده و بدین ترتیب پایه سیستم مکاشفه‌ای GPS را بنیان می‌گذارد.
آنالیز mean-ends مفید است، اما به ما نمی‌گوید زمانی که فعالیتهای زیادی ما را به هدف برسانند، چه کنیم و یا زمانی که هیچ عملی برای رسیدن به هدف وجود نداشته باشد. آرنائولد، به درستی فرمولی کمی برای تصمیم‌گیری در چنین شرایطی را توصیف نموده است. جان استوارت میل (1873-1806) در کتاب Utilitarianism این ایده را گسترش داده است. در بخش بعدی تئوری رسمی‌تری از تصمیم‌گیری ارائه می‌گردد.

ریاضیات (800.C تاکنون):
فلاسفه بیشتر ایده‌های مهم AI را ذکر کرده‌اند، اما برای ارتباط آنها با دانش نظری نیاز به فرمول‌سازی ریاضی در سه زمینه اصلی است: محاسبات، منطق و احتمالات. نظریه اظهار محاسبات به عنوان الگوریتمی رسمی به خوارزمی برمی‌گردد، ریاضیدان عربی قرن نهم که نوشته‌های وی جبر و تئوری اعداد عربی را به اروپا معرفی کرد.
منطق حداقل به زبان ارسطو برمی‌گردد، اما تا قبل از جورج بول (1864-1818) بیشتر نگرش فلسفی بر آن بود تا ریاضی. او کسی بود که زبان رسمی‌اش برای ساخت استنتاج منطقی در سال 1847 معرفی شد. رهیافت بول کامل نبود اما به اندازه کافی مفید بود تا خلأهای بقیه را پر کند. در سال 1879 Frege (1925-1847) منطقی را به وجود آورد که به جز برخی تغییرات نگارشی، منطق مرتبه اول را به شکلی مطرح نمود که امروزه در بیشتر سیستمهای نمایش دانش پایه استفاده می‌شود. آلفرد تارسکی (1983-1902) تئوری اساسی را به وجود آورد که چگونه اشیا موجود در محیط منطقی را به اشیا موجود در دنیای واقعی مرتبط کنیم. قدم بعدی تعیین محدودیتهای منطق و محاسبه بود.
دیوید هیلبرت (1943-1862) ریاضیدان بزرگی بود که همه او را به خاطر مسائلی که نتواست حل کند به خاطر دارند. در سال 1900 او لیستی حاوی 23 مسئله ارائه نمود که به درستی پیش‌بینی نمود یک قرن ذهن ریاضیدانان را به خود مشغول خئاهد کرد. در آخرین مسئله می‌پرسد که آیا الگوریتمی برای تصمیم‌گیری درست منطقی گزاره‌ها شامل اعداد طبیعی وجود دارد که آن را مسئله تصمیم‌گیری  نامید.
عبارت درست در منطق مرتبه اول فریگه و راسل وجود دارد، اما منطق مرتبه اول نتوانست اصل استقرا ریاضی مورد نیاز برای تشخیص اعداد طبیعی را شامل گردد. در 1931، او نشان داد که محدودیتهای واقعی وجود دارند. قضیه کامل نبودن وی نشان داد که در هر زبانی هر چند پر معنا برای بیان خواص اعداد طبیعی، عبارات درستی وجود دارند که غیرقابل تصمیم‌گیری هستند و درستی آنها توسط هیچ الگوریتمی نمی‌تواند ایجاد شود.
این نتیجه بنیادی می‌تواند بدین گونه نیز تفسیر گردد که توابعی بر روی اعداد صحیح وجود دارند که به وسیله الگوریتم غیر قابل بیان هستند، بنابراین نمی‌توانند محاسبه گردند. این قضیه آلن تورینگ (1954-1912) را ترغیب کرد تا به دنبال راه حلی باشد تا بتواند توابعی را بیابد که محاسبه‌پذیر باشند. این موضوع در عمل کمی مشکل‌آفرین است چرا که مفهوم محاسبه یا روال موثر حقیقتاً نمی‌تواند توسط تعریفی رسمی داده شود. به هر حال نظریه چرچ‌ـ‌تورینگ بیان می‌کند که ماشین تورینگ قادر به محاسبه هر تابع محاسبه‌پذیری است، به طور عمومی پذیرفته شد تا تعریف کافی مهیا گردد. تورینگ همچنین نشان داد که توابعی وجود دارند که هیچ ماشین تورینگی قادر به محاسبه آن نیست. برای مثال، هیچ ماشینی در حالت کلی نمی‌تواند بگوید که یک برنامه داده شده به ازای ورودی داده شده پاسخی باز می‌گرداند یا بینهایت بار اجرا خواهد شد.
اگر چه تصمیم‌ناپذیری و محاسبه‌ناپذیری برای درک محاسبات اهمیت دارند، مفهوم انجام‌ناپذیری  تأثیر بیشتری را داشته است. گروهی از مسائل انجام‌ناپذیر نامیده می‌شوند اگر زمان حل نمونه‌های گروه نرخ رشدی نمایی نسبت به اندازه نمونه داشته باشند. تمایز بین رشد نمایی و چند جمله‌ای اولین بار در نیمه دهه 1960 میلادی تأکید شد. این مسئله مهم است چرا که رشد نمایی بدین معناست که حتی در اندازه متوسط، نمونه‌ها نمی‌توانند در زمان قابل قبولی حل شوند. بنابراین کسی باید تلاش کند تا مسئله را از تولید رفتار هوشمندانه به زیر مسائل حل شدنی تقسیم کند تا به انواع غیرقابل حل شدن. دومین مفهوم در تئوری پیچیدگی مفهوم استحاله  است که در همان دهه 1960 حاصل شده است. استحاله تبدیلی عمومی از یک گروه مسائل به دیگری است چنانچه راه حلهای گروه اول با استحاله آنها به مسائل گروه دوم و حل مسائل آخری پیدا شود.
چگونه می‌توانیم مسئله انجام ناپذیر را تشخیص دهیم؟ تئوری NP-completeness که به وسیله استیون کوک (1971) و ریچارد کارپ (1972) مطرح شد چنین روشی را مهیا می‌کند. کوک و کارپ نشان دادند وجود گروههای بزگی از مسائل جستجوی ترکیبی تمرکزی و استدلالی، NP-complete هستند. هر گروه مسئله‌ای که به گروه NP-complete تقلیل یابد خود نیز مسائل انجام‌ناپذیر شناخته می‌شود.این نتایج به وضوح با " ابر مغزهای الکترونیکی" در تضاد هستند. به رغم افزایش سرعت کامپیوترها، استفاده دقیق از منابع، مشخصه سیستمهای هوشمند خواهد بود. اما باید توجه داشت که جهان یک نمونه از مسئله به غایت بزرگ است!
علاوه بر منطق محاسبات، سومین شاخه بزرگ ریاضیات برای AI تئوری احتمال است. جوردانو گاردنیوی ایتالیایی (1576-1501) اولین کسی بود که ایده احتمال را مطرح کردو آنرا به صورت نتایج ممکن در رویدادهای بازیهای شانسی تعریف نمود. قبل از زمان حیات وی، نتایج بازیهای شانسی به خواست خدایان دیده می‌شد تا شانس افراد. احتمالات به سرعت بخش باارزشی از علوم کمی را تشکیل داد و کار با اندازه‌گیریهای نامطمئن و تئوریهای ناقص را سهل نمود. برنولی همچنین دیدگاهی از احتمالات را به وجود آورد که به عنوان درجه باور ذهنی در مقایسه با نرخ نتایج عینی مطرح شد. بنابراین احتمالات ذهنی می‌توانند در جایی که مدرک تازه‌ا‌ی به دست آید به روز درآورده شوند. توماس بیس (1761-1702) قانونی برای به هنگام‌سازی احتمالات ذهنی را با وجود شواهد تازه به وجود آورد. قانون بیس و حیطه بعدی آنالیز بیسی، زیربنای رهیافت نوین به استدلال غیر قطعی در سیستمهای AI است. هنوز بحث بین هواداران ایده‌های عینی و ذهنی احتمالات شدت دارد. اما یک چیز مشخص نیست که این اختلاف نظرها اهمیت زیادی برای AI دارند یا خیر. هر دو طرف از همان مجموعه اصل موضوعهای یکسان پیروی می‌کنند.
مطابق با منطق باید ارتباطی بین استدلال احتمالاتی و عمل برقرار گردد. تئوری تصمیم‌گیری که با کار جان ون نیومن و اسکار مورگنسترن (1944) آغاز شد، تئوری احتمال و تئوری سودمندی را ترکیب کرده تا اولین تئوری عمومی که تمایز بین عمل خوب و بد را معین می‌کند، ایجاد نماید.

روانشناسی (1879 تاکنون):
روانشناسی به علمی گفته می‌شود که با کار فیزیکدان آلمانی هرمن ون هلمولتز (1894-1821) و شاگرد وی ویلهم وندت   (1920-1832) آغاز شده است. هلمولتز روش علمی را برای مطالعه بینایی انسان به کار برد و کتاب مرجع بینایی فیزیولوژیک وی حتی هم‌اکنون به عنوان مهمترین رساله فیزیکی و روانشناختی بینایی انسان تا به امروز شناخته می‌شود. در سال 1879 یعنی همان سالی که منطق مرتبه اول مطرح شد، وندت اولین آزمایشگاه روانشناسی تجربی را در دانشگاه لایپزیت راه انداخت. وندت بر روی تجارب به دقت کنترل شده پافشاری می‌کرد که در آن کارکنانش زمانی که پردازشهای فکری آنها را بررسی می‌کرد، یک عمل ادراکی را ارائه می‌کردند. کنترلهای دقیق راه طولانی را طی کردند تا روانشناسی را به یک علم تبدیل نمود. امام همانگونه که متدولوژی انتشار می‌یافت، پدیده‌ای جدی نیز مطرح می‌شد. هر آزمایشگاه داده‌هایی را گزارش می‌داد که با تئوریهای متداول در آن آزمایشگاه مطابقت داشت. حرکت رفتارگرایی  جان داتسن (1958-1875) و ادوارد تورن دایک (1949-1874) در مقابل ذهنی‌‌گرایی طغیان کرد و هر تئوری که مبتنی بر پردازشهای ذهن بود را رد کرد و اظهار داشت که درون‌گرایی شواهد قابل اطمینانی را تولید نخواهد کرد. رفتارگرایان تنها بر روی مطالعه اندازه‌گیری محرکها اعمال شده به یک حیوان و عملکرد اثر آن پافشاری می‌کردند. ساختارهای ذهنی همانند دانش، باورها، اهداف و مراحل استدلال به عنوان روانشناسی محلی غیر عملی مطرح شدند. رفتارگرایان مطابل زیادی در مورد موشها و کبوتران کشف کردند اما برای درک انسان چندان موفق نبودند. با این وجود در حدود سالهای 1920 تا 1960 نفوذ زیادی بر روانشناسی به ویژه در ایالات متحده داشتند.
این نگرش که مغز دارنده و پردازش‌کننده اطلاعات است و اساس مشخصه روانشناسی شناختی راتشکیل می‌دهد، به زمان کارهای ویلیام جیمس (1910-1824) برمی‌گردد. هلمهولتز همچنین اصرار داشت که ادراک شامل شکلی از استنتاج منطقی غیرآگاهانه است. نقطه نظر شناختی تا سال 1943 وسیعاً توسط رفتارگرایان تحت‌الشعاع قرار داده شده بود، زمانی که کنت کریک کتاب ماهیت بیان را منتشر نمود. کریک قدم ذهنی گم‌شده بین محرکها و پاسخها را قرار داد.
او ادعا کرد که باورها، اهداف و مراحل استدلال می‌توانند مولفه‌های معتبری از تئوری رفتار انسانی باشند. کریک سه مرحله کلیدی را برای عامل مبتنی بر دانش معین کرد: (1) محرکها باید به شکل درونی تبدیل شوند (2) بازنمایی توسط پردازشهای شناختی بازنمایی‌های داخلی جدیدی را مشتق کند و (3) اینها دوباره ب صورت عمل برگردند. او به روشنی توضیح داد چرا این طرحی خوب برای یک عامل است. عاملی که بدین گوه طراحی می‌شود، می‌تواند سفری طولانی را با در نظر گرفتن مسیرهای ممکن متفاوت و مقایسه آنها و انتخاب بهترین آنها، قبل از شروع سفر برنا‌ریزی کند. تا سال 1960 دیدگاه پردازش اطلاعات بر روانشناسی غالب بود. اما اکنون اکثریت روانشناسان اعتقاد دارند که یک تئوری ادراکی باید مانند برنامه‌ای کامپیوتری باشد. از این رو تئوری باید شناخت را به عنوان فرایندهای تبدیل درست تعریف‌شده‌ای شرح دهد که در سطح اطلاعات سیگنال ورودی را حمل می‌کنند.

مهندسی کامپیوتر (1940 تاکنون):
برای پیشرفت هوش مصنوعی، به دو چیز احتیاج داریم: هوش و محصول مصنوعی. کامپیوتر می‌تواند محصول مصنوعی باشد که بهترین شانس نمایش هوش را دارد. کامپیوتر الکترونیک دیجیتال مدرن همزمان توسط دانشمندان سه کشور که در جنگ جهانی دوم صف‌آرایی کرده بودند، ساخته شده است. اولین کامپیوتر مدرن عملیاتی Health Robinson نام داشت که در سال 1940 توسط تیم آلن تورینگ برای هدف کدگشایی پیامهای آلمانها ساخته شد. زمانی که آلمانها به کد پیچیده‌تری روی آوردند، ثابت شد که رله‌های الکترومکانیکی رابینسون بسیار کند هستند و ماشین جدیدی به نام Colossus با تیوپهای مکنده ساخته شد. این ماشین در سال 1943 کامل شد و در انتهای جنگ، ده ماشین Colossus مورد استفاده روزانه قرار می‌گرفت.
اولین کامپیوتر قابل برنامه‌ریزی   نام داشت که اختراع کنراد زوس در سال 1941 در آلمان بود. زوس اعداد با ممیز شناور را برای   اختراع کرد و در سال 1945 زبان Plankalkul را به عنوان اولین زبان برنامه‌نویسی سطح بالا توسعه داد. اگرچه زوس از طرف رایش سوم برای به کارگیری ماشینش در طراحی هواپیما مورد حمایت قرار گرفت اما سلسله مراتب نظامی اهمیت چندانی برای استفاده از آن نداد همان طور که رقیب انگلیسی نیز این کار را نکرد.
در ایالات متحده، اولین کامپیوتر الکترونیک یعنی ABC توسط جان آتاناسف و دانشجوی کارشناسی ارشدش کلیفورد بری بین سالهای 1940 تا 1942 در دانشگاه ایالتی ایوا ساخته شد. این پروژه از حمایتهای اندکی برخوردار بود و با رفتن آتاناسف به صنایع نظامی در واشنگتن به تعلیق درآمد. دو پروژه کامپیوتری دیگر در تحقیقات سری آتش آغاز شدند: III و II و I MARK که در هاروارد توسط تیمی زیر نظر هوراد ایکن توسعه داده شد و ENIAC که در دانشگاه پنسیلوانیا توسط تیمی به سرپرستی جان ماچلی و جان اکرت ساخته شد. ENIAC اولین کامپیوتر دیجیتال الکترونیک چند منظوره بود. یکی از اولین کاربردهای آن محاسبه جداول آتشبار توپخانه بود. EDVAC که بر پایه پیشنهاد ون نیومن برای استفاده برنامه ذخیره شده ساخته شده بود و تکنسینها را قادر ساخته برای اجرای برنامه‌ای جدید نیازمند جابجایی سیم‌بندیها نباشد.
اما شاید مهمترین اتفاق ساخت   در سال 1952 توسط ناتانیل روچتر و گروه وی بود. این اولین کامپیوتری بود که برای سازندگان آن سودی به ثمر رساند.   رفت که تبدیل به یکی از بزرگترین شرکتها شود و فروش کامپیوترهایش به سالانه 150 میلیارد دلار برسد. در ایالات متحده صنعت کامپیوتر در حال حاضر در حدود 10% از تولید ناخالص ملی را تشکیل می‌دهد.
هر نسلی از سخت‌افزار کامپیوتر به سرعت و ظرفیت خود افزایش داده است و از سوی دیگر قیمتها نیز کاهش یافته‌اند. مهندسی کامپیوتر به طور قابل ملاحظه‌ای موفقیت‌آمیز بوده است و هر دو سال یکبار کارایی آن دو برابر می‌شود و در این فرایند افزایش نمی‌توان پایانی را متصور بود. ماشینهای موازی می‌توانند محاسبات بسیار سنگین و پیچیده‌تری را برای حصول خروجی بهتر انجام دهند.
همچنین   دینی دارد که باید به بخش نرم‌افزاری علوم کامپیوتر ادا کند که سیستمها عامل، زبانهای برنامه‌نویسی و ابزارهای مورد نیاز برای تهیه برنامه‌های مدرن را مهیا نموده است. اما زمینه‌ای است که در آن دینها پرداخته شده است: کار در زمینه   منجر به ایده‌های بسیار متعددی شد که به علوم کامپیوتر برگشت همانند اشتراک زمانی، مفسرهای دوسویه، نوع داده لیست پیوندی، مدیریت حافظه خودکار و برخی نکات کلیدی برنامه‌نویسی شیی‌ـ‌گرا و محیطهای توسعه برنامه مجتمع با واسط کاربر گرافیکی.

زبان‌شناسی (1957 تاکنون):
در سال 1957 فرانک اسکینر کتاب رفتار زبانی را منتشر کرد. این یک کتاب مشروح در نگرش رفتارگرایان برای یادگیری زبان بود که توسط پیشگامان این علم نوشته شد. اما چاپ تجدید نظر شده این کتاب به شهرتی همانند اصل کتاب رسید و باعث عدم تمایل وسیعی نسبت به نظریه رفتارگرایان شد. نویسنده این تجدیدنظر نوآم چامسکی بود که این کتاب را براساس تئوری خودش یعنی ساختارهای ترکیبی منتشر ساخت. چامسکی نشان داد که چگونه تئوری رفتارگرایان نمی‌تواند مفهوم خلاقیت در زبان را توجیه کند چرا که قادر به توجیه نیست چگونه یک کودک می‌تواند بفهمد و جمله بسازد در حالی که او هرگز آن جملات را قبلاً نشنیده است. تئوری چامسکی بر پایه مدلهای نحوی قرار دارد که به پانینی زبان‌شناس هندی (350 قبل از میلاد مسیح) برمی‌گردد. تئوری چامسکی برخلاف تئوریهای قبلی به اندازه کافی رسمی بود تا قابل برنامه‌نویسی گردد.
پیشرفتهای بعدی در زبان‌شناسی نشان داد که مسئله نسبت به آنچه که در سال 1957 به نظر می‌رسید، می‌بایست به طور قابل ملاحظه‌ای پیچیده‌تر باشد. زبان دارای ابهامات و ناگفته‌های زیادی است . این بدان معنی است که فهم زبان نیاز به فهم موضوع و زمینه آن دارد و نه تنها یک فهم ساده از ساختار جملات. این به نظر واضح می‌آید اما به اندازه کافی تا اول دهه 1960 میلادی قابل تحسین نبود. بیشتر کارهای گذشته بر روی بازنمایی معرفت (مطالعه اینکه چگونه دانش را به گونه‌ای تبدیل می‌کنند که قابل استفاده کامپیوتر برای استدلال گردد) با زبان گره خورده بود و همچنین با تحقیقات در زبان‌شناسی که منجر به کار در چند دهه به روی آنالیز فلسفی زبان شد.
زبان‌شناسی مدرن و   در یک زمان متولد شدند، بنابراین زبان‌شناسی نقش مهمی در رشد   بازی نمی‌کند. منتها این دو در یک زمینه مشترک به نام زبان‌شناسی محاسباتی یا پردازش زبان طبیعی به هم تنیده شده‌اند که در آن بر روی مسئله استفاده زبان تمرکز شده است.

نظرات 1 + ارسال نظر
بازدیدکننده یکشنبه 28 آذر‌ماه سال 1389 ساعت 09:27 ق.ظ

سلام خسته نباشید
می خواستم به خاطر مطالب خوبتون ازتون تشکر کنم
مرسی

برای نمایش آواتار خود در این وبلاگ در سایت Gravatar.com ثبت نام کنید. (راهنما)
ایمیل شما بعد از ثبت نمایش داده نخواهد شد