خلاصه کتاب سازندگان نابغه

خلاصه کتاب سازندگان نابغه اثر کید متز

زمان مطالعه: 22دقیقه
5
(1)

خلاصه کتاب ” سازندگان نابغه ” اثر ” کِید مِتز ”
Genius Makers by Cade Metz

5 امتیاز از مجموع 1 نظری که ثبت شده

این کتاب درباره چیست؟

کتاب سازندگان نابغه (یا نابغه سازان) (نوشته‌شده در سال 2021) داستان رقابت فعلی برای توسعه‌ی هوش مصنوعی را بیان می‌کند. این گزارش‌های گسترده از تاریخچه‌ی وسیع هوش مصنوعی، از روزهای ابتدایی تا جنجال‌های امروزی این فناوری را پوشش می‌دهند.

چه کسانی باید این کتاب را بخوانند؟

  • کسانی که نسبت به هوش مصنوعی و تکنولوژی‌های نوظهور بدبین هستند.
  • عاشقان تکنولوژی که در انتظار یک آینده‌ی دیجیتالی و منحصربه‌فرد هستند.
  • هرکس که نسبت به آینده‌ی کامپیوتر کنجکاو است.

نویسنده این کتاب کیست؟

کِید مِتز گزارشگر مجله‌ی نیویورک‌تایمز و کارشناس هوش مصنوعی، رباتیک و دیگر مسائل دیجیتالی/تکنولوژیکی است. پیش‌ازاین، او به‌عنوان نویسنده‌ی ارشد مجله‌ی Wired فعالیت می‌کرد.

تاریخچه‌ای مختصر از هوش مصنوعی

خیلی قبل در سال 1968، فیلم 2001: Space Odyssey | دنیا را با HAL آشنا کرد؛ یک ابرکامپیوتر بدجنس که ذهن و دستور کار مخصوص به خودش را داشت. البته که چنین تکنولوژی‌های پیشرفته‌ای همه علمی تخیلی‌اند، نه؟

امروزه محققان دولتی، استادان دانشگاه و کارآفرینان رؤیاپرداز در سراسر جهان با یکدیگر در توسعه‌ی بهترین هوش مصنوعی ممکن در رقابت هستند. بسیاری از تکنولوژی‌هایی که هوش مصنوعی محور هستند همین حالا هم در زندگی‌هایمان حضور دارند. این خلاصه کتاب مسیر ما تا این نقطه و مقصد احتمالی‌مان در آینده به لطف این روندها را بررسی می‌کند و با تکیه‌بر گزارش‌های بنیادی و مصاحبه با صدها متخصص از شرکت‌های پیشرو مانند گوگل، مایکروسافت و OpenAI، به ما نشان می‌دهد این داستان‌های علمی تخیلی ازآنچه فکر می‌کنیم به واقعیت نزدیک‌تر است.

در این خلاصه کتاب به موارد زیر نیز پرداخته می‌شود:

  • چرا به هر ویدئوئی که می‌بینید نباید اعتماد کنید.
  • چه چیزی مغز شما را بالاتر از یک کامپیوتر قرار می‌دهد.
  • چگونه یک کتاب، آغازگر «زمستان هوش مصنوعی» شد.

تحقیقات اولیه در رابطه با هوش مصنوعی با شک‌وتردید همراه بود.

در 7 جولای 1958، گروهی از مردان به دور کامپیوتری که به‌اندازه‌ی یک یخچال بود و در یکی از اتاق‌های اداره‌ی هواشناسی در واشنگتن دی. سی قرار داشت جمع شده بودند و فرانک روزِنبِلات، استاد جوان دانشگاه کُرنِل را نگاه می‌کردند که دسته‌ای کارت را به کامپیوتر نشان می‌داد.

بر روی هر کارت، مربعی سیاه در یک طرفش چاپ‌شده بود. کامپیوتر باید تشخیص می‌داد کدام کارت‌ها در سمت چپ خود علامت دارند و کدام کارت‌ها در سمت راست. کامپیوتر در ابتدا در انجام این کار ناموفق بود اما همچنان که روزِنبِلات کارت‌ها را به او نشان می‌داد، دقتش افزایش میافت و پس از 50 تلاش، نهایتاً توانست بدون غلط کارت‌ها را از یکدیگر تشخیص دهد.

روزِنبِلات این کامپیوتر را پِرسِپترون می‌نامد. درحالی‌که آن روزها عصر ابتدایی فناوری به نظر می‌رسد، درواقع پیشروی اولیه‌ی چیزی است که امروزه آن را هوش مصنوعی می‌نامیم. البته در آن زمان هوش مصنوعی، به‌عنوان یک فناوری نوظهور نادیده گرفته شد.

امروزه، ما پِرسِپتِرون روزِنبِلات و جانشینش Mark I را به‌عنوان نسخه‌های ابتدایی شبکه‌ی عصبی می‌شناسیم. شبکه‌های عصبی، کامپیوترهایی هستند که از فرایندی به نام یادگیری ماشینی استفاده می‌کنند؛ فرایندی که زیربنای چیزی است که آن را هوش مصنوعی می‌خوانیم. در پایه‌ترین سطح، آن‌ها کار خود را با تحلیل مقدار عظیمی از داده و جست‌وجو برای الگوها شروع می‌کنند. هرچقدر که یک شبکه الگوهای بیشتری را شناسایی کند، الگوریتم‌های تحلیلی خود را برای تولید اطلاعات دقیق‌تر اصلاح می‌کند.

در سال 1960، این فرایند کند بود و شامل مقدار زیادی آزمون‌وخطا می‌شد. برای آموزش دادن Mark I، دانشمندان تکه‌هایی از کاغذ که بر رویشان حروف الفبا نوشته‌شده بود را به خورد کامپیوتر می‌دادند. بنا بر مجموعه‌ای از محاسبات، کامپیوتر حروف مربوطه را حدس می‌زد و سپس دانشمندان درست یا غلط بودن آن را علامت می‌زدند. Mark I هر بار محاسبات خود را به‌روزرسانی می‌کرد تا دفعه‌ی بعد حدس دقیق‌تری داشته باشد.

دانشمندانی مانند روزِنبِلات چنین فرایندی را به مغز انسان تشبیه می‌کردند و ادعا داشتند هر محاسبه مانند یک نورون است. با اتصال محاسباتی که به‌مرورزمان به‌روزرسانی و اصلاح می‌شود، یک کامپیوتر می‌تواند درست مانند انسان‌ها یاد بگیرد. روزِنبِلات چنین چیزی را پیوند گرایی خواند. بااین‌حال، مخالفانی مانند داروین مینسکی، دانشمند کامپیوتر دانشگاه MIT وجود داشتند. در کتابی از سال 1969، مینسکی مفهوم پیوند گرایی را موردانتقاد قرار داد و ادعا داشت که یادگیری ماشینی هیچ‌وقت نمی‌تواند به سطحی برسد که مشکلات پیچیده‌تر را حل کند.

کتاب مینسکی بسیار هم تأثیرگذار بود و در دهه‌های 1970 و 1980، علاقه درزمینه‌ی تحقیقاتی شبکه‌های عصبی کاهش یافت. در طول این «زمستان هوش مصنوعی» تنها تعداد کمی از مؤسسات، تحقیقات شبکه‌های عصبی را تأمین مالی کردند و به همین خاطر پیشرفت یادگیری ماشینی از حرکت بازایستاد اما هیچ‌گاه به‌صورت کامل متوقف نشد. چند دانشمند به کار کردن با پیوند گرایی ادامه دادند که در بخش بعدی درباره‌اش صحبت می‌کنیم.

یادگیری عمیق، شبکه‌های عصبی را به موضوع موردعلاقه‌ی فناوری تبدیل کرد.

از همان ابتدا، جِف هینتون با دیگران فرق داشت. او در اوایل دهه‌ی 1970 که اوج زمستان هوش مصنوعی حساب می‌شد از دانشگاه اِدینبورگ مدرک دکترای خود را دریافت کرد و رویکرد پیوند گرایی را برای مطالعه‌ی هوش مصنوعی پیش گرفت. تعجبی نداشت که در آن شرایط نتوانست شغلی پس از فارغ‌التحصیلی برای خود پیدا کند.

تا یک دهه بعد، هینتون همچنان در حوزه‌ی تحصیلات آکادمیک فعالیت کرد و در دانشگاه‌های سَن دیِگوی کالیفرنیا و نهایتاً تورنتوی کانادا مشغول تدریس شد. در همین حال، او به اصلاح تئوری‌های خود راجع به یادگیری ماشینی ادامه داد و باور داشت که اضافه کردن لایه‌های اضافی محاسبات که آن‌ها را «یادگیری عمیق» می‌خواند، می‌تواند پتانسیل واقعی شبکه‌های عصبی را آزاد کند.

طی سال‌ها، هینتون به‌آرامی پیشرفت کرد و شک‌وتردیدها را کنار زد و سپس در سال 2008 با دانشمند مایکروسافت لی دِنگ ملاقات کرد.

لی دنگ و جف هینتون برای اولین بار در کنفرانس NIPS مربوط به هوش مصنوعی در دانشگاه بریتیش کلمبیا هم‌صحبت شدند. در آن زمان، دنگ مشغول توسعه‌ی یک نرم‌افزار تشخیص گفتار برای مایکروسافت بود. هینتون این فرصت را غنیمت شمرد و ادعا کرد که یادگیری عمیق شبکه‌های عصبی می‌تواند بهتر از هر رویکرد دیگری عمل کند. دنگ مردد اما کنجکاو بود و نهایتاً هردو شروع به همکاری کردند.

دنگ و هینتون اکثر روزهای خود در سال 2009 را مشغول کار در آزمایشگاه تحقیقاتی مایکروسافت در رِدموندِ واشنگتن بودند. با همکاری یکدیگر، برنامه‌ای نوشتند که از مدل یادگیری ماشینی برای تحلیل صدها ساعت گفت‌وگوی ضبط‌شده استفاده می‌کرد. این برنامه بر روی تراشه‌های پردازنده GPU مخصوصی کار می‌کرد که معمولاً در کامپیوترهای Gaming استفاده می‌شد. پس از هفته‌ها پردازش، نتایج باورنکردنی بود و برنامه می‌توانست فایل‌های صوتی را با دقت خارق‌العاده‌ای به‌صورت کلمه یا جمله بررسی کند.

خیلی زود، دیگر شرکت‌های تکنولوژیکی نیز مشغول آزمایش با برنامه‌های مشابه شدند. ناودیپ جایتلی، یکی از دانشمندان گوگل از ماشین یادگیری عمیق خود استفاده کرد و با داشتن نرخ خطای تنها 18 درصدی، نتایج بهتری هم گرفت! این موفقیت‌های ابتدایی، پایه‌گذار قدرت شبکه‌های عصبی در آینده شدند. علاوه‌براین، محققان دریافتند از مفاهیم پایه و یکسانی می‌توان برای تحلیل بسیاری از مشکلات، از جست‌وجوی تصویری گرفته تا مسیریابی خودروهای بدون راننده استفاده کرد.

در کمتر از چند سال، یادگیری عمیق به جذاب‌ترین تکنولوژی سیلیکون ولی تبدیل شد. شرکت بلندپرواز گوگل نیز با خرید تحقیقاتی هینتون به نام DNNresearch و استارت‌آپ های دیگر هوش مصنوعی مانند DeepMind، رهبری این پروژه را بر عهده گرفت. درعین‌حال، این تنها شروع ماجرا بود و در سال‌های بعد رقابت بر سر این تکنولوژی شدیدتر هم شد.

بزرگ‌ترین شرکت‌های سیلیکون ولی در تحقیقات هوش مصنوعی سرمایه‌گذاری کردند.

در نوامبر سال 2013، کلِمِنت فارابِت مشغول گذراندن یک شب آرام در خانه‌ی خود بود که ناگهان تلفن همراهش زنگ خورد. چه کسی پشت خط بود؟ دوست یا همکار؟ نه، مارک زاکِربِرگ!

این تماس، او را شوکه کرد اما آن‌قدر هم دور از انتظار نبود. فارابت محقق آزمایشگاه NYU در بخش یادگیری عمیق بود و برای چندین هفته‌ی متوالی، کارکنان فیس‌بوک در تلاش برای آوردن او به شرکت این شبکه‌ی اجتماعی بودند. فارابت در ابتدا مردد بود اما یک تماس خصوصی از طرف زاکربرگ او را متقاعد کرد.

البته که فارابت تنها نبود و بسیاری از همکارانش نیز پیشنهادهایی مشابه دریافت کرده بودند. غول‌های فناوری سیلیکون ولی هم در این مسابقه برای جذب بهترین نیروها حضور داشتند و هر شرکت مصمم بود تا رهبری حوزه‌ی نوظهور هوش مصنوعی را در دست بگیرد.

در اوایل دهه‌ی 2010، یادگیری عمیق و شبکه‌های عصبی، هنوز هم به نسبت، تکنولوژی‌های جدید حساب می‌شدند. هرچند که شرکت‌هایی مانند فیس‌بوک، اپل و گوگل باور داشتند آینده متعلق به هوش مصنوعی است. بااینکه کسی هنوز نمی‌دانست هوش مصنوعی قرار است چگونه سودآور باشد، تمامی شرکت‌ها می‌خواستند در این بخش اولین باشند. گوگل با خرید DeepMind از بقیه جلو افتاد اما فیس‌بوک و مایکروسافت با پرداخت میلیون‌ها برای استخدام محققان، به نزدیکی در تعقیب او بودند.

شرکتی مانند فیس‌بوک که یک شبکه‌ی اجتماعی محسوب می‌شود چه چیزی در هوش مصنوعی می‌دید؟ خب، یک شبکه‌ی عصبی پیشرفته با درک مقادیر انبوهی از داده بر روی سِرورها، می‌تواند کسب‌وکار را بهینه‌سازی کند. هوش مصنوعی می‌تواند چهره‌ها را شناسایی کند، زبان‌های مختلف را ترجمه کند یا عادات خرید مشتریان را برای نشان دادن تبلیغات هدفمند پیش‌بینی کند. یا حتی از طریق مجموعه‌ای از بات‌ها وظایفی مانند پیام دادن به دوستان یا ثبت کردن سفارش را انجام دهد و به‌طور خلاصه، شبکه را زنده کند.

گوگل نیز به همین شکل برنامه‌های بزرگی برای تحقیقات خود داشت. کارشناسان هوش مصنوعی گوگل آنِلیا آنجِلووا و الکس کریژِفسکی پیش‌بینی می‌کردند بتوانند با استفاده از نمای خیابان گوگل یا Google Street View بتوانند خودروهای بدون راننده که به‌راحتی در شهرهای شلوغ تردد می‌کند، توسعه دهند.

محققی دیگر به نام دِمیس حاسابیس در حال طراحی یک شبکه‌ی عصبی بود تا کارآمدی انرژی میلیون‌ها سروری که گوگل بر روی آن‌ها فعالیت می‌کرد را بهبود بدهد.

در رسانه، پروژه‌ها به‌عنوان برنامه‌هایی نوگرایانه که آینده را تغییر می‌دهند شناخته می‌شدند. بااین‌حال، همه نسبت به این پروژه خوش‌بین نبودند و نیک باستروم، فیلسوفی از دانشگاه آکسفورد هشدار داد که پیشرفت‌های هوش مصنوعی به‌سادگی می‌تواند از کنترل خارج شود و در مسیر اشتباه قرار گیرد. او اظهار داشت که ماشین‌های ابر هوشمند غیرقابل پیش‌بینی خواهند بود و جان بشریت را در معرض خطر قرار می‌دهند. البته که چنین هشداری سرعت سرمایه‌گذاری بر هوش مصنوعی را کند نکرد.

شبکه‌های عصبی پتانسیل کنار زدن انسان در بسیاری از زمینه‌ها را دارند.

تابه‌حال Go بازی کرده‌اید؟ یک بازی ساده که در آن دو بازیکن به‌نوبت مهره‌های سیاه‌وسفید را بر روی صفحه قرار می‌دهند و تلاش می‌کنند دیگری را محاصره کنند. در واقعیت اما، این بازی بسیار پیچیده است، حرکاتش شامل چندین مسیر احتمالی می‌شود و به‌قدری غیرقابل پیش‌بینی است که هیچ‌وقت کامپیوتر نتوانسته بود انسان را در آن شکست دهد، البته تا سال 2015!

در اکتبر سال 2015، برنامه‌ی هوش مصنوعی گوگل به نام AlphaGo مقابل فان هوی، بالا رتبه‌ترین بازیکن Go قرار گرفت. AlphaGo یک سیستم شبکه‌ی عصبی بود که می‌توانست میلیون‌ها طرز بازی مختلف را آنالیز کند. او پنج بار مقابل فان هوی به پیروزی رسید و چند ماه بعد نیز لی سِدول، قهرمان بلامنازع این بازی را شکست داد.

مشخصاً چنین اتفاقی برای هوش مصنوعی یک موفقیت بزرگ حساب می‌شد و پس‌ازآن دانشمندان بیشتری شروع به مطالعه‌ی شبکه‌های عصبی کردند و این شبکه‌ها قوی‌تر هم شدند.

دهه‌ها پس‌ازاینکه روزِنبِلات برای اولین بار شروع به آزمایش با پِرسِپتِرون کرد، ظرفیت‌های شبکه‌های عصبی به‌سرعت افزایش یافتند. این روند رو به رشد و فوق‌العاده توسط دو جریان هدایت می‌شد: اول، سرعت پردازنده‌های کامپیوتری افزایش و درعین‌حال قیمتشان کاهش‌یافته بود که یعنی هر تراشه‌ی مدرن می‌توانست محاسبات بسیار گسترده‌تر و بیشتری نسبت به مدل‌های قبلی انجام دهد. دو، اینکه فراوانی داده باعث شده بود تا شبکه‌ها بتوانند با تکیه‌بر انبوهی از اطلاعات متنوع توسعه یابند.

در نتیجه‌ی این پیشرفت‌ها، محققان می‌توانستند به‌صورت خلاقانه اصول یادگیری ماشینی را بر هر مسئله‌ای وارد کنند. برای مثال، مشکل تشخیص بیماری رِتینوپاتی دیابت را در نظر بگیرید؛ وضعیتی که در صورت عدم رسیدگی، باعث بیماری فرد می‌شود. تشخیص زودهنگام این بیماری نیاز به یک پزشک بسیار باتجربه و ماهر دارد تا چشم بیمار را برای یافتن آسیب‌های بافتی، خونریزی و تغییر رنگ‌های جزئی بررسی کند. در کشوری مانند هند که با کمبود پزشک مواجه است، نیروی انسانی کافی برای آزمایش همه وجود ندارد.

اینجا بود که مهندس گوگل وارون گالشِن و فیزیک‌دان لیلی پِنگ وارد ماجرا شدند. این دو دانشمند با همکاری یکدیگر طرحی را برای تشخیص مؤثر رِتینوپاتی دیابتی به وجود آوردند. با بررسی 130 هزار اسکن دیجیتالی چشم از بیمارستان چشم‌پزشکی آراویند در هند، آن دو توانستند یک شبکه‌ی عصبی را توسعه دهند که بتواند علائم ریز بیماری را تشخیص دهد. پس از فشرده‌سازی داده‌ها، این برنامه می‌توانست به‌صورت خودکار چشم بیمار را در کمتر از چند ثانیه آنالیز کند. همچنین، این برنامه دقت 90 درصدی داشت که درست به‌اندازه‌ی یک پزشک ماهر بود.

پروژه‌های مشابه نیز می‌توانند آینده‌ی خدمات درمانی را متحول سازند. از شبکه‌های عصبی می‌توان برای آنالیز ایکس ری، سی‌تی اسکن، ام‌آرآی و دیگر داده‌های پزشکی استفاده کرد تا به‌صورت مؤثر علائم بیماری‌ها را تشخیص دهند و با گذشت زمان حتی می‌توانند الگوهایی که در چشم قابل‌دیدن نیست را تشخیص دهند.

هوش مصنوعی در مراحل پیشرفته‌تر می‌تواند دیدگاه ما از واقعیت را تحریف کند.

فرض کنید در حال گشت‌وگذار در توییتر هستید و مطالب همیشگی مانند یک تصویر خنده‌دار، یک تبلیغ هدفمند و مشاجره‌ی دو کاربر را می‌بینید. ناگهان به یک ویدیو از دونالد ترامپ می‌رسید که نظرتان را جلب می‌کند. اما او شبیه به همان دونالد ترامپ همیشگی نیست.

در این ویدیو، ترامپ به‌راحتی چینی صحبت می‌کند و حتی حرکات دهانش، زبان بدنش و ریتم گفتارش با چیزی که می‌گوید هماهنگ است؛ پس ممکن نیست که دوبله باشد. اگر چندبار ویدیو را از اول ببینید، متوجه چند ناهماهنگی و ایراد می‌شوید. این ویدیو هرچند که ساختگی، اما بسیار قانع‌کننده است.

شاید این بار فریب نخوردید اما چنان‌که هوش مصنوعی پیشرفت می‌کند، تشخیص دروغ از واقعیت سخت‌تر هم می‌شود.

در اوایل دهه‌ی 2010، تحقیقات یادگیری ماشینی بر روی آموزش کامپیوتر بر تشخیص الگوها در اطلاعات تمرکز داشت. برنامه‌های هوش مصنوعی با بررسی مجموعه‌ای از تصاویر، آن‌ها را شناسایی و بر اساس محتوایشان دسته‌بندی می‌کردند. اما در سال 2014، یکی از محققان گوگل به نامیان گودفِلا ایده‌ی متفاوتی ارائه داد: آیا هوش مصنوعی می‌تواند تصاویری کاملاً جدید بسازد؟

گودفلا برای انجام این کار، اولین شبکه‌ی مولد رقابتی یا GAN را طراحی کرد. در GAN، دو شبکه‌ی عصبی یکدیگر را آموزش می‌دهند؛ اولین شبکه تصاویر را به وجود می‌آورد و دومین شبکه با استفاده از الگوریتم‌های پیشرفته، میزان دقیق بودنش را می‌سنجد. درنتیجه‌ی تبادل اطلاعات این دو شبکه، تصاویر ساخته‌شده به واقعیت نزدیک‌تر می‌شود.

بااینکه تصاویر جعلی همیشه وجود داشته‌اند، شبکه‌های مولد رقابتی می‌توانند تصاویر سه‌بعدی واقع‌گرایانه از انسان‌ها، اشیاء یا هر چیز که به ذهنتان برسد خلق کنند. خیلی زود، کاربران شروع به استفاده از این تکنولوژی برای ساختن ویدیوهای دروغین از سیاستمداران، خوانندگان مشهور و دیگر افراد شناخته‌شده کردند. اگرچه بیشتر این Deep fake ها بی‌آزارند، برخی با خلق محتوای غیراخلاقی زنگ خطرهایی را به صدا درمی‌آورند.

Deep fake تنها مشکلی نیست که در تحقیقات هوش مصنوعی وجود دارد. منتقدان به مسائل نژادی و جنسیتی نیز در این زمینه اشاره‌کرده‌اند. در سال 2018، دانشمند کامپیوتری به نام جوی بولام‌وینی، ثابت کرد که برنامه‌های تشخیص چهره‌ی فیس‌بوک و گوگل در شناسایی چهره‌ی افرادی که سفیدپوست یا مرد نیستند، خطا دارد. چرا؟ چون این برنامه‌ها حول چهره‌ی افراد سفیدپوست آموزش داده‌شده اند و چنین یافته‌هایی واقعاً می‌تواند در رابطه با پتانسیل سرکوبگرایانه‌ی هوش مصنوعی نگران‌کننده باشد. این موضوع را در بخش بعدی بررسی می‌کنیم.

هوش مصنوعی به‌سادگی می‌تواند برای اهداف سیاسی مورد سوءاستفاده قرار گیرد.

در پاییز سال 2017، هشت مهندس از پایگاه تحقیقاتی کِلاریفای که بر روی هوش مصنوعی متمرکز است موظف به انجام کار عجیبی شدند. از آن‌ها خواسته شد تا شبکه‌ی عصبی بسازند که بتواند مردم، وسایل نقلیه و ساختمان‌ها را به‌خصوص در محیط‌های صحرایی شناسایی کند.

مهندسان با تردید کار خود را شروع کردند و خیلی زود، شایعاتی نگران‌کننده همه‌جا پخش شد. مشخص شد که آن‌ها نه برای یک مشتری معمولی، بلکه برای وزارت دفاع ایالات‌متحده کار می‌کردند و شبکه‌ی عصبی آن‌ها برای جهت‌یابی پهبادها استفاده می‌شد. پس به‌صورت ناآگاهانه، عضوی از برنامه‌ی تسلیحاتی دولتی شده بودند.

پس از پخش شدن خبر، مهندسان از پروژه خارج شدند اما این فقط شروع ماجرا بود. به نظر می‌رسید هوش مصنوعی بیش از اینها درگیر دنیای سیاست شده است.

شرکت‌های خصوصی تنها مشتاقان یافتن توانایی‌های هوش مصنوعی نبودند و دولت‌ها نیز به‌صورت فزاینده‌ای از پتانسیل تحول‌آفرین تکنولوژی یادگیری ماشینی آگاه شده بودند. شورای دولتی چین سرمایه‌ی هنگفتی برای تبدیل‌شدن به رهبر هوش مصنوعی تا سال 2030 کنار گذاشت و دولت ایالات‌متحده نیز بیش‌ازپیش سرمایه را در برنامه‌های توسعه‌ی هوش مصنوعی که اغلب درزمینه‌های نظامی بودند وارد می‌کرد.

در سال 2017، وزارت دفاع ایالات‌متحده و شرکت گوگل برای همکاری چند میلیون دلاری بر سر برنامه‌ای به نام پروژه‌ی ماوِن با یکدیگر وارد مذاکره شدند. در این توافق، تیم هوش مصنوعی گوگل با توسعه‌ی یک شبکه‌ی عصبی، برنامه‌ی پهبادی پِنتاگون را بهینه‌ساز می‌کرد. تعجبی نداشت که کمک به ارتش باعث نارضایتی بسیاری از مهندسان شد و بیش از سه هزار کارمند خواهان لغو قرارداد شدند. درحالی‌که این قرارداد نهایتاً لغو شد، گوگل به همکاری خود با شرکت‌های نظامی ادامه داد.

در همین حال، فیس‌بوک نیز درگیر جنجال‌های سیاسی خودش بود. طی دوره‌ی انتخابات ریاست جمهوری سال 2016، یک شرکت نوپای بریتانیایی به نام کمبریج آنالیتیکا اطلاعات خصوصی 50 میلیون کاربر فیس‌بوک را جمع‌آوری کرده بود تا کمپین تبلیغاتی فریب‌کارانه برای دونالد ترامپ درست کند. این رسوایی مشکل میان‌داری فیس‌بوک را به همه نشان داد و به خاطر کاربران بسیاری که داشت، تبدیل به کانونی برای پخش کردن تبلیغات رادیکالی و اطلاعات غلط شده بود.

در سال 2019، زاکربرگ در مقابل کنگره شهادت داد که شرکتش از هوش مصنوعی برای پاک‌سازی محتوای زیان‌بخش استفاده خواهد کرد. هرچند که این راه‌حل بی‌نقص نبود و حتی پیشرفته‌ترین شبکه‌های عصبی هم در تجزیه‌وتحلیل بحث‌های سیاسی به مشکل خوردند. نه فقط این موضوع، بلکه یک هوش مصنوعی بدجنس، خود به‌تنهایی می‌توانست به‌سرعت اطلاعات سیاسی غلط ایجاد کند. در واقعیت، هرگاه که یک فرد بخواهد از هوش مصنوعی برای اهداف مثبت استفاده کند، خود را مقابل نیروهای شر خواهد دید.

شبکه‌های عصبی هنوز هم نمی‌توانند تفکر یا یادگیری انسان گونه داشته باشند.

در یک روز بهاری زیبا در ماه می سال 2018، آمفی‌تئاتر شارولین در کالیفرنیا سرتاسر پر شده است و جمعیت دیوانه شده‌اند! مردی که بر روی صحنه حضور دارد یک راک‌استار یا بازیگر معروف نیست؛ بلکه سوندار پیچای، مدیرعامل شرکت گوگل است و یک تلفن همراه در دست دارد.

این کنفرانس سالانه‌ی گوگل است و I/O نام دارد. در این کنفرانس، پیچای از آخرین نوآوری شرکت یعنی دستیار گوگل رونمایی کرد. این دستیار با استفاده از تکنولوژی شبکه‌های عصبی به نام WaveNet، می‌تواند با استفاده از صدای واقع‌گرایانه‌ی انسانی تماس‌های صوتی برقرار کند. در ویدیویی که پیچای برای حاضرین پخش کرد، هوش مصنوعی با موفقیت توانست میزی در رستوران رزرو کند و منشی رستوران حتی متوجه نشد که با یک کامپیوتر صحبت می‌کند.

توانایی‌های جدید هوش مصنوعی جمعیت را شگفت‌زده کرد اما برخی راضی به نظر نمی‌رسیدند.

آنچه پیچای ارائه داد، برای پروفسور گَری مارکوس از دانشکده‌ی روانشناسی نیویورک خسته‌کننده بود و درست مانند ماروین مینسکی، او نیز نسبت به پتانسیل واقعی یادگیری ماشینی بدبین بود. هنگامی‌که دستیار گوگل با درک تقریباً انسانی از مکالمه و گفتار معرفی شد، ماروین معتقد بود این برنامه فقط وقتی قابل‌تحسین است که یک کار خاص و قابل پیش‌بینی را انجام دهد.

استدلال مارکوس مبنی بر مکتبی به نام بومی‌گرایی بود. بومی‌گرایان باور دارند بخش عظیمی از هوش انسان توسط تکامل به مغز ما متصل شده است؛ بدان معنا که اساس یادگیری انسانی با یادگیری عمیق شبکه‌ی عصبی تفاوت دارد. برای مثال، مغز نوزاد به‌قدری تیز است که می‌تواند یک حیوان را با دیدن یک یا دو عکس یاد بگیرد. اما شبکه‌ی عصبی برای یادگیری همین موضوع نیاز به دیدن میلیون‌ها عکس دارد.

برای بومی‌گرایان، این تفاوت در توانایی‌های ذاتی نشان می‌دهد چرا شبکه‌ی عصبی به‌سرعتی که پیش‌بینی‌شده بود توسعه‌نیافته است؛ به‌خصوص وقتی صحبت از انجام کارهای ظریفی مانند درک زبان باشد. علیرغم اینکه هوش مصنوعی دستیار گوگل می‌تواند مکالمات پایه را انجام دهد، توانایی انجام مکالمات پیچیده‌تر که روزانه برای یک انسان عادی اتفاق می‌افتد را ندارد. هوش مصنوعی شاید بتواند غذا سفارش دهد اما توانایی درک یک جوک را ندارد!

البته که محققان در تلاش برای عبور از این مانع هستند. تیم‌های گوگل و OpenAI در حال حاضر بر روی چیزی به نام مدل‌سازی زبان جهانی کار می‌کنند؛ سیستمی که شبکه‌های عصبی را آموزش می‌دهد تا زبان را با جزئیات بیشتر و به‌صورت محتوا محور درک کنند. باوجوداینکه پیشرفت‌هایی در این زمینه دیده‌شده، هنوز نمی‌توان گفت که هوش مصنوعی هم‌صحبت خوبی است.

محققان در حال توسعه‌ی هوش مصنوعی، فراتر از توانایی‌های فعلی‌اش هستند.

گوگل یکی از موفق‌ترین شرکت‌های کره زمین است. این سازمان به‌تنهایی مسئول اختراع و کار بسیاری از سرورهایی است که دنیای مدرن با تکیه بر آن کار می‌کند و همچنین، چندین میلیارد دلار سودآوری دارد. حال تصور کنید دو، سه یا 50 گوگل وجود داشت. آیا هوش مصنوعی می‌تواند چنین چیزی را ممکن کند؟

شاید! حداقل ایلیا ساتسکِفِر، دانشمند ارشد شرکت OpenAI که این‌طور می‌گوید. اگر دانشمندان بتوانند یک هوش مصنوعی که به‌اندازه‌ی ذهن انسان توانا و خلاق باشند بسازند، دنیا متحول خواهد شد. یک ابرکامپیوتر هوشمند می‌تواند یک نسخه‌ی بهتر بسازد و همین چرخه تا جایی پیش برود که بشریت را به فراتر ازآنچه تصور می‌کنیم ببرد.

این یک رؤیای دور از دسترس است. آیا می‌توانیم آن را واقع‌گرایانه حساب کنیم؟ حتی خوش‌بین ترین افراد سیلیکون ولی هم مطمئن نیستند.

وقتی فرانک روزِنبِلات برای اولین بار پِرسِپتِرون را معرفی کرد، علیرغم وجود شک و تردید، افرادی بودند که امید بسیار زیادی به کار او داشتند. در سراسر جهان، دانشمندان و آینده‌نگرهایی وجود دارند که مدعی‌اند به‌زودی کامپیوتر از توانایی فکری و ذهنی انسان پیشی می‌گیرد. هِربِرت سیمون، پروفسور دانشگاه کارنِگی ملون اطمینان دارد چنین چیزی در دو دهه‌ی آینده اتفاق می‌افتد. البته واضح است که چنین پیش‌بینی هایی به‌طور کامل محقق نمی‌شوند.

بااین‌حال، علیرغم سرعت شگفت‌انگیز پیشرفت هوش مصنوعی، هنوز بسیاری باور دارند هوش انسانی یا حتی هوش ابر انسانی که گاهی به آن هوش جامع مصنوعی نیز میگویند، ممکن است به وجود آید و درواقع همین حالا نیز مشغول تحقیق بر روی آن هستند. در سال 2018، OpenAI اعلام کرد برنامه‌ی هوش جامع مصنوعی یا همان AGI را جزو اهداف اصلی خود قرار داده و بلافاصله پس از اعلام این خبر، مایکروسافت موافقت کرد تا یک میلیارد دلار بابت تحقیقات این هدف بلندپروازانه سرمایه‌گذاری کند.

اینکه چگونه می‌توان به AGI رسید هنوز مشخص نیست اما محققان مشغول بررسی آن از چندین جهت هستند. برخی شرکت‌ها مانند گوگل، Nvidia و اینتل مشغول کار بر روی تراشه‌ی جدیدی مخصوص شبکه‌های عصبی هستند. آن‌ها می‌خواهند یک سخت‌افزار قدرتمند بسازند که به شبکه‌ها اجازه‌ی پردازش داده می‌دهد تا از موانعی که بر سر راه برنامه‌های یادگیری ماشینی وجود دارد عبور کنند.

در همین حال، جف هینتون که یکی از فعالان ابتدایی یادگیری ماشینی است مسیری متفاوت را پیش‌گرفته و مشغول کار بر تکنولوژی جدیدی به نام شبکه‌های کپسولی است. گفته می‌شود این مدل تجربی ساختار و عملکرد مغز انسان را با دقت بیشتری منعکس می‌کند. بااین‌حال، سال‌ها طول می‌کشد تا ثمره‌ی کار هینتون را ببینیم و تا آن زمان ممکن است فرضیه‌ی کاملاً جدیدی به وجود آمده باشد زیرا با هوش مصنوعی، آینده هیچ‌وقت مشخص نیست.

پیام نهایی کتاب نابغه سازان

Genius Makers by Cade Metzپیشرفت‌های اخیر هوش مصنوعی باعث به وجود آمدن هجمه، نگرانی و جنجال‌های بسیاری شده است. بیشتر چیزی که ما آن را هوش مصنوعی می‌نامیم بر روی مدل‌های شبکه‌ی عصبی بنا شده که از رشته‌های محاسباتی برای تجزیه‌وتحلیل مقدار انبوهی از داده و شناسایی الگوها استفاده می‌کند. دولت‌ها و شرکت‌های خصوصی به جهت بهینه‌سازی جست‌وجوی تصویری، ساخت تبلیغات اینترنتی، تشخیص بیماری و تا هدایت هواپیماهای خودمختار این تکنولوژی را توسعه داده‌اند. اینکه تحقیقات هوش مصنوعی در آینده به کجا می‌رسد، مشخص نیست. اما برخی یقین دارند این تکنولوژی به تولید محصولات تحول‌آفرین ادامه می‌دهد.

میانگین امتیاز 5 / 5. تعدا آرا 1

2 دیدگاه برای “خلاصه کتاب سازندگان نابغه اثر کید متز

نظرتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *