هوشمصنوعی چیست؟
هوشمصنوعی نوعی هوشمندی برگرفته شده و شبیهسازی شده از هوش انسانی است که در کامپیوترها پیادهسازی میشود و در زمینههایی از جمله: سیستمهای متخصص، تحلیل و یادگیری زبانهای مختلف، تحلیل گفتاری و بینایی ماشینی استفاده میشود.
سیستمهای متخصص:
این سیستم یک برنامه کامپیوتریست که با استفاده از هوشمصنوعی رفتارهای انسان و یا مسائل مربوط به یک سازمان را در یک زمینه خاص و یا زمینههای مختلف بررسی میکند.
بینایی ماشینی:
توانایی یک ماشین برای دیدن به کمک دوربین و جمعآوری سیگنالهای مختلف است، این اطلاعات جمعآوری شده برای پردازش و مدیریت به یک کامپیوتر و یا کنترلکننده ارسال میگردد.

نقطه شروع
در اواخر قرن نوزدهم و نیمه اول قرن بیستم جهشهای متعددی در زمینه پیشرفت کامپیوترها و رسیدن به کامپیوترهای امروزی رخ داد. در سال 1836 در دانشگاه کمبریج، دو ریاضیدان به نامهای Charles Babbage و Augusta Ada Byron اولین ماشین با قابلیت برنامهنویسی شدن را طراحی کردند.
1940: ریاضیدان دانشگاه پیرینستون، John Von Neumann، طرحی جدید برای ساخت کامپیوترهای دارای برنامه حافظهدار ارائه کرد. (اولین سری برنامههای کامپیوتری که دارای حافظه بود و میتوانست دادهها را ذخیرهسازی کند). Warren McCulloch و Walter Pitts، پایه و اساس شبکههای عصبی(neural networks) را بنا نهادند.
1950: با ظهور کامپیوترهای مدرن، دانشمندان توانستند ایدههای خود در زمینه هوشماشینی امتحان کنند که در همین راستا یک روش توسط Alan Turing ریاضیدان بریتانیایی و کسی که کد ماشین انیگمای آلمانیها را در جنگ جهانی دوم شکست، ابداع شد. در اواخر این دهه، دو دانشمند به نامهای Newell و Simon الگوریتم GPS (General Problem Solver) را ارائه کردند. این الگوریتم با اینکه در حل مسائل پیچیده توانمند نبود ولی با این حال پایه و اساس پیشرفت و توسعه در زمینه هوشمصنوعی را بنا نهاد.
1956: در اوایل این سال تعریفی جدید در زمینه هوشمصنوعی در یک کنفرانس تابستانی در کالج Dartmouth ارائه شد. این کنفرانس با چندین تن از چهرههای برجسته در حوزه هوشمصنوعی از جمله Marvin Minsky، Oliver Selfridge و John McCarthy و اسپانسر آن نیز آژانس پروژههای تحقیقات پیشرفته دفاعی (DARPA) بود.
1960: در پی کنفرانس کالج دارموث، پیشگامان عرصه هوشمصنوعی بر این باور بودند در صورت حمایت سرمایهگذاران، این فناوری میتواند در آینده به جایگاهی برسد که عملکردی شبیه به مغز انسان ارائه دهد. در اواسط این دهه استاد دانشگاه MIT پروفسور Joseph Weizenbaum یک برنامه پردازش زبان طبیعی به نام ELIZA را ابداع کرد که پایه و اساس Chatbotهای امروزی است. جان مکارتی در سال 1959 یک زبان برنامهنویسی برای هوشمصنوعی به نام Lisp را ابداع کرد که همچنان مورد استفاده قرار میگیرد.
1970و1980: در این دوره دانشمندان به علت پیچیدگیهای فراوان این فناوری و محدودیتهای پردازش کامپیوتری به این نتیجه رسیدند که دست یافتن به این تکنولوژی قریب الوقوع نخواهد بود.
بعد از این جریان دولتها و شرکتهای بزرگ حمایت از این تکنولوژی را متوقف کردند. در بین سالهای 1974 تا 1980 سرعت توسعه این فناوری به شدت کاهش یافت به گونهای که این دوران را "زمستان هوشمصنوعی" نامگذاری کردند.
در دهه 80 تحقیقات بر روی تکنیکهای یادگیری عمیق و سیستمهای کارشناسی برای تجزیهوتحلیل دادهها جرقهای تازه برای پیدایش موج جدیدی از علاقهمندی به فناوری هوشمصنوعی ایجاد کرد. اما متأسفانه باری دیگر به علت حمایت نشدن از طرف دولتها و کمپانیهای بزرگ، زمستان دوم برای هوشمصنوعی تا اواسط دهه 90 اتفاق افتاد.
