شما عضو این انجمن نبوده یا وارد نشده اید. لطفا برای مشاهده کامل انجمن و استفاده از آن وارد شوید یا ثبت نام کنید .

مهمان گرامی، خوش‌آمدید!
شما قبل از این که بتوانید در این انجمن مطلبی ارسال کنید باید ثبت نام کنید.

نام کاربری
  

گذرواژه‌
  





جستجوی انجمن‌ها

(جستجوی پیشرفته)

آمار انجمن
» اعضا: 3,540
» آخرین عضو: user5587
» موضوعات انجمن: 10,390
» ارسال‌های انجمن: 14,565

آمار کامل

کاربران آنلاین
در حال حاضر 221 کاربر آنلاین وجود دارد.
» 0 عضو | 221 مهمان
، ، Applebot

آخرین موضوع‌ها
سفر به ماسال؛ اقامت در وی...
انجمن: سفرهای داخلی
آخرین ارسال توسط: arvin912
دیروز، ۰۱:۴۲ عصر
» پاسخ: 0
» بازدید: 47
بهترین ویلاهای بابلسر برا...
انجمن: سفرهای داخلی
آخرین ارسال توسط: arvin912
دیروز، ۰۱:۴۱ عصر
» پاسخ: 0
» بازدید: 52
سوئیت یا ویلا؟ بهترین گزی...
انجمن: سفرهای داخلی
آخرین ارسال توسط: arvin912
دیروز، ۰۱:۴۰ عصر
» پاسخ: 0
» بازدید: 44
آینده‌ای بدون صف؛ وقتی فن...
انجمن: گفتگوی آزاد
آخرین ارسال توسط: marjan1999
۰۴/۸/۲۱، ۰۱:۲۸ عصر
» پاسخ: 0
» بازدید: 44
نقش دستگیره هوشمند در امن...
انجمن: گفتگوی آزاد
آخرین ارسال توسط: marjan1999
۰۴/۸/۲۰، ۰۴:۵۵ عصر
» پاسخ: 0
» بازدید: 48
آموزش طرز تهیه کیک مرغ با...
انجمن: گفتگوی آزاد
آخرین ارسال توسط: navidradi
۰۴/۸/۱۹، ۰۶:۱۲ عصر
» پاسخ: 0
» بازدید: 51
ویلا بابلسر؛ ترکیب دریا، ...
انجمن: سفرهای داخلی
آخرین ارسال توسط: arvin912
۰۴/۸/۱۶، ۰۲:۲۵ عصر
» پاسخ: 0
» بازدید: 78
ویلا؛ انتخابی برای سبک زن...
انجمن: سفرهای داخلی
آخرین ارسال توسط: arvin912
۰۴/۸/۱۶، ۰۲:۲۱ عصر
» پاسخ: 0
» بازدید: 59
اجاره ویلا در رشت؛ تجربه ...
انجمن: سفرهای داخلی
آخرین ارسال توسط: arvin912
۰۴/۸/۱۶، ۰۲:۱۶ عصر
» پاسخ: 0
» بازدید: 60
هوشمند سازی ساختمان در ته...
انجمن: گفتگوی آزاد
آخرین ارسال توسط: navidradi
۰۴/۸/۱۴، ۱۰:۳۷ صبح
» پاسخ: 1
» بازدید: 959
زندگی محلی را با بوم‌گردی...
انجمن: سفرهای داخلی
آخرین ارسال توسط: arvin912
۰۴/۸/۹، ۰۸:۵۶ عصر
» پاسخ: 0
» بازدید: 71
یک آخر هفته رویایی در ویل...
انجمن: سفرهای داخلی
آخرین ارسال توسط: arvin912
۰۴/۸/۹، ۰۸:۵۵ عصر
» پاسخ: 0
» بازدید: 65
کلبه چوبی؛ قصه‌ی آرامش در...
انجمن: سفرهای داخلی
آخرین ارسال توسط: arvin912
۰۴/۸/۹، ۰۸:۵۱ عصر
» پاسخ: 0
» بازدید: 71
تفریح، آرامش و لوکس بودن ...
انجمن: سفرهای داخلی
آخرین ارسال توسط: arvin912
۰۴/۸/۲، ۱۰:۳۲ عصر
» پاسخ: 0
» بازدید: 73
ویلا در شمال | سفری به سر...
انجمن: سفرهای داخلی
آخرین ارسال توسط: arvin912
۰۴/۸/۲، ۱۰:۰۹ عصر
» پاسخ: 0
» بازدید: 67

 
  استفاده از اثر انگشت به جای پول نقد در ژاپن
ارسال کننده: farnaz - ۹۵/۲/۱۱، ۰۱:۱۴ صبح - انجمن: اخبار فناوری جهان - پاسخ (1)

[تصویر:  do.php?img=1065]

این تابستان دولت ژاپن فرآیند آزمایش سیستمی که به توریست‌های خارجی اجازه می‌دهد، هویت فردی، خریدها و دسترسی به سرویس‌ها را تنها با اثر انگشت خود مدیریت کنند، به مرحله اجرا در خواهد آورد. دولت ژاپن در نظر دارد پیش از بازی‌های المپیک و پاراالمپیک 2020 از این سیستم استفاده کند. این طرح که مرحله آزمایشی آن از تابستان آغاز به کار خواهد کرد تا نواقص آن شناسایی شده و سیستمی کارآمد آماده شود، با هدف کاهش وقوع جرم و کاهش استرس مسافران با هدف حذف پول نقد یا کارت‌های اعتباری به مرحله اجرا در خواهد آمد.

دولت ژاپن خود را برای بررسی سیستم اثر انگشت جدیدی که در اختیار مسافران خارجی قرار خواهد گرفت آماده می‌کند. به‌طوری که مسافران خارجی به جای آن‌که از پول نقد یا کارت‌های اعتباری استفاده کنند از اثر انگشت خود برای این منظور استفاده کنند. ساز و کار این مکانیزم امنیتی به این شکل است که مسافران خارجی زمانی که در فرودگاه ژاپن وارد می‌شوند، اثر انگشت، اطلاعات بانکی و اطلاعات مرتبط با کارت‌های خود را به ثبت می‌رسانند و زمانی که در ژاپن حضور دارند از اثرانگشت خود برای خرید کالاها، احراز هویت و پرداخت صورت حساب‌ هتل استفاده می‌کنند.
این خبر از آن جهت حائز اهمیت است که در حال حاضر در ژاپن مسافران باید برای حضور در هتل‌ها گذرنامه خود را به مسئول هتل تحویل دهند. اما اگر سیستم فوق بتواند بر مسائل فنی و مشکلات امنیتی غلبه کند، آن‌گاه دولت مجوز استفاده از این ساز و کار برای احراز هویت مسافران خارجی را مورد تأیید قرار خواهد داد. دولت برای آزمایش این طرح نزدیک به 300 رستوران، فروشگاه و شرکت‌های تجاری خاص را انتخاب کرده است. این کسب و کارها عمدتا در شهرها و مکان‌هایی هستند که مسافران خارجی به وفور به آن‌ها مراجعه می‌کنند. اگر همه چیز خوب پیش رود، تا بهار سال آینده (2017) تعداد بیشتری شرکت به این طرح افزوده خواهند شد.
در حالی که همه چیز در ظاهر خوب به نظر می‌رسد و دردسر نظارت و بررسی و همچنین گم شدن گذرنامه‌ها کاهش می‌یابد، اما کارشناسان امنیتی در خصوص جمع‌آوری داده‌های شخصی مردم توسط دولت ژاپن ابراز نگرانی کرده‌اند. از طرفی دولت ژاپن در نظر دارد پیش از المپیک 2020 اطلاعات مورد نیاز خود را از مسافران خارجی دریافت کند، اما پیش‌بینی می‌شود، بسیاری از مردم در به اشتراک‌گذاری اطلاعات شخصی خود با دولت ژاپن همراهی نخواهند کرد. در همین رابطه بانک Aeon  در شهر توکیو اعلام کرده است: «ما دستگاه‌های خودپرداز مجهز به این ساز و کار را در اختیار مردم قرار خواهیم داد. در این ساز و کار جدید شانس بسیار کمی برای افراد فرصت طلب وجود دارد تا هویت مشتریان این بانک را جعل کنند. در نتیجه ساز و کار جدید ایمن‌تر از گذشته خواهد بود.»

در اکتبر سال گذشته میلادی Huis Ten Bosch theme Park واقع در شهر ناکازاگی سیستم مشابهی را به مرحله اجرا در آورد و گزارش داد که این سیستم به خوبی کار خود را انجام داده است. این سیستم به خوبی از سوی مشتریان مورد قبول قرار گرفت. به ویژه خانواده‌هایی که فرزندانی دارند. به این شکل مشکلاتی از قبیل گم شدن کیف پول به‌طرز محسوسی کم شده است. دولت ژاپن همچنین در نظر دارد تا سیستمی را به مرحله آزمایش در آورد تا به شهروندان این کشور اجازه دهد برای برداشت وجه نقد از ماشین‌های خودپرداز از ساز و کاری این چنینی استفاده کنند. این‌کار با هدف افزایش امنیت و کاهش معاملاتی کلاه‌بردارانه که با کارت‌های به سرقت رفته انجام می‌شود صورت خواهد گرفت.

چاپ این مطلب

  سفری به باغ مخفی گوگل
ارسال کننده: farnaz - ۹۵/۲/۱۱، ۰۱:۰۹ صبح - انجمن: گفتگوی آزاد - پاسخ (1)

آسانسورهای فضایی، دورنوردی (طی‌الارض)، تخته‌اسکیت معلق و خودروهای بدون راننده؛ نگاهی بی‌سابقه به درون آزمایشگاه فوق‌سری ابتکارات گوگل، Google X و این‌که گوگل چگونه فکر می‌کند؟ روایتی از یک چیز بد! شاید هم یک چیز خوب؛ در گوگل اکس گاهی تشخیص تفاوت خوب و بد دشوار است.
مدیریت کار روزانه در آزمایشگاه ابتکارات غول جست‌وجو به عهده استرو تلر است؛ آزمایشگاهی که به‌شدت محرمانه است و به یافتن راهکارهای غیرعادی برای مشکلات بزرگ جهانی اختصاص دارد. او رئیس یا مدیر گوگل اکس نیست. سمت واقعی او، چنان‌که روی کارت ویزیت شیشه‌ای حکاکی‌شده‌اش هم نوشته شده، کاپیتان مون‌شات‌ها (Captain of Moonshots) است؛ مون‌شات عبارت اختصاصی او برای نوآوری‌های متهورانه‌ای است که شانس بسیار کمی برای موفقیت دارند، اما اگر موفق شوند، دنیا را متحول می‌کنند. عصر یک روز عادی در یکی از رستوران‌های شلوغ ماونتن ویو است و او هنگام صرف شام، روزی را به یاد می‌آورد که باید اخبار ناخوشایندی را به گوش رئیس‌های خود، سرگی برین (یکی از بنیان‌گذاران) و پتریک پیچت (مدیر ارشد مالی) می‌رساند. تلرِ 43 ساله با آه خفیفی می‌گوید: «جلسه پیچیده‌ای بود. داشتم به آن‌ها می‌گفتم که یکی از گروه‌های ما دوران سختی را می‌گذراند و ما به تغییر مسیر نیاز داریم که این کار هزینه‌بر است؛ نه یک هزینه جزئی.» گروه مالی تلر نگران بود؛ خود او هم همین‌طور. اما پیچت به مشکل گوش کرد و گفت: «ممنون بابت این‌که به محض فهمیدن به من گفتی. کاری می‌کنیم که جور شود.»

[تصویر:  do.php?img=1062]
 سرپرست گوگل اکس، استرو تلر، شکست را در آغوش می‌گیرد. گاهی در عمل این کار را می‌کند:  به این مشهور است که در جلسه‌های گروهی هر کسی را که به اشتباه خود اعتراف می‌کند یا در بحث مغلوب می‌شود، بغل می‌کند.

در ابتدا به نظر می‌رسید که منظور تلر این است که تحمل گوگل اکس در مقابل عقب‌نشینی به‌شکلی غیرمعمولی زیاد است؛ موقعیتی خاص که رئیس‌های او با اشتیاق به ثمر رسیدن کار و همچنین درآمد شگفت‌انگیز و تقریباً غیرمعقول شرکت مادر، به کمک حل آن می‌آیند. اما این فقط بخشی از داستان است. از قضا تسمه‌های خاصی (به‌شکل ریسمان‌های بندبازان)
درخت‌های محوطه خارجی دفاتر گوگل اکس را به هم متصل می‌کند. سه مرد پس از جلسه بیرون رفتند، کفش‌ها را از پا در آوردند و بیست دقیقه‌ای برای راه رفتن روی بندها تلاش می‌کردند. پیچت در راه رفتن به عقب و جلو کاملاً ماهر است، برین کمی کم‌تر و تلر هیچ مهارتی ندارد. اما هر سه به‌نوبت روی طناب تعادل می‌گرفتند، مرتب می‌افتادند و دوباره روی طناب می‌رفتند. تسمه تا ران افراد بالا آمده است. تلر می‌گوید: «مانند سوتی‌هایی بود که ویدیوهای‌شان را در یوتیوب می‌بینیم.» و این پیام واقعی او است: «وقتی این مردان مشکلی ندارند که زمین بخورند، ناله کنند و دوباره بلند شوند؛ آن‌ها پای برهنه دارند؟» او به عقب تکیه می‌زند و مکث می‌کند تا بگوید: «این جوهره گوگل اکس است. وقتی مدیران در نمای کلی می‌توانند شکست بخورند، پس این اجازه به بقیه داده می‌شود که بیش‌تر این‌گونه باشند.»
در اصل، در گوگل‌ اکس شکست یک هدف نیست، اما از خیلی جهات، یک وسیله و راه است برای رسیدن به هدف. حالا که با تلر صحبت می‌کنم، بیش‌تر روز را درون آزمایشگاه او گذرانده‌ام؛ جایی که تا پیش از این، هیچ روزنامه‌نگاری حق گشت زدن در آن را نداشته است. از صبح تا عصر، از فضاهای کاری متعددی بازدید کردم و با اعضای گروه ارزیابی پی‌درپی گوگل اکس(Google X Rapid Evaluation Team) مشهور به Rapid Eval صحبت‌هایی طولانی داشتم؛ صحبت‌هایی درباره این‌که چگونه ایده‌ها را با دقت می‌سنجند و نویدبخش‌ترین آن‌ها را بر می‌گزینند.

[تصویر:  do.php?img=1063]
 آشپزخانه طراحی در نزدیکی دفاتر اصلی گوگل اکس قرار دارد که یک کارگاه بزرگ ساخت‌وساز است مملو از پرینترهای سه‌بعدی، ماشین‌تراش‌های پیشرفته و تجهیزات ماشینی پیچیده دیگر است (در کناری تعدادی عناصر تزئینی غریب).

این کار ابتدا با انجام هر کار ممکن توسط انسان یا فناوری، در راستای از هم پاشیدن آن‌ها آغاز می‌شود. Rapid Eval نقطه آغاز فرآیند خلاقانه در گوگل اکس است؛ این یک روش است که به رد کردن ایده‌ها بسیار بیش‌تر از تصدیق آن‌ها اهمیت می‌دهد، به همین دلیل گاهی گمان می‌کردم که گوگل اکس (یا به قول کارکان، اکس) برای شکست ارزشی تقدس‌وار قائل است. چنان‌که ریچ دووال، سرپرست Rapid Eval، می‌گوید: «چرا وقتی می‌توان همین حالا شکست خورد، آن را به فردا یا هفته دیگر عقب انداخت؟» تلر به هنگام شام به من می‌گوید که گاهی افرادی را که به اشتباه خود اعتراف می‌کنند یا در جلسات گروهی مغلوب می‌شوند، در آغوش می‌گیرد.
اکس افراد معمول دره سیلیکون را استخدام نمی‌کند. گوگل همین حالا یک آزمایشگاه بزرگ با نام Google Research دارد که عمدتاً وقف علوم کامپیوتر و فناوری‌های اینترنتی می‌شود. تمایز گاهی به این شکل نمود پیدا می‌کند: گوگل ریسرچ بیش‌تر درباره بیت‌ها است و گوگل اکس بیش‌تر درباره اتم‌ها. به بیان دیگر، اکس وظیفه ساخت چیزهایی واقعی را دارد که با دنیای فیزیکی در تعامل قرار می‌گیرند و تا اندازه مشخصی به چهار پروژه اصلی که تا کنون از اکس بیرون آمده‌اند، یک پیوستگی منطقی می‌بخشد: خودروهای بدون راننده، گوگل گلس، بالون‌های مرتفع وای‌فای و لنزهای ناظر قند خون. اکس عمدتاً در جست‌وجوی افرادی است که به دنبال ساخت چیزهای مختلف هستند و به این راحتی ناامید نمی‌شوند. در حال حاضر، درون آزمایشگاه بیش از 250 فرد مختلف باقدرت کار می‌کنند؛ گروهی منحصربه‌فرد از محققان کهنه‌کار، مجسمه‌سازان، فیلسوفان و ماشین‌کاران را ملاقات کردم. یکی از دانشمندان اکس دو اسکار جلوه‌های ویژه برده است. خود تلر یک رمان نوشته، در حوزه مالی کار کرده و دکترای خود را در رشته هوش مصنوعی گرفته است. یکی از استخدامی‌های اخیر به مدت پنج سال، عصرها و آخر هفته‌های خود را صرف ساخت یک هلی‌کوپتر در گاراژ خود کرده است. این هلی‌کوپتر به راستی کار می‌کند و او آن را مرتب پرواز می‌دهد؛ به نظرم دیوانه‌وار است! اما فقط مهارت‌های فناورانه او نبود که کار را نصیبش کرد، بلکه هلی‌کوپتر بود. دووال می‌گوید: «تعریف کلاسیک متخصص این است که کسی بیش‌تر و بیش‌تر درباره کم‌تر و کم‌تر می‌داند نه این‌که همه چیز را درباره هیچ بداند. چنین افرادی می‌توانند به‌شدت در یک روند متمرکز، کارآمد باشند. اما این‌ها افرادی مناسب اکس نیستند. آن‌چه ما می‌خواهیم، از یک جهت، افرادی هستند که کم‌تر و کم‌تر درباره بیش‌تر و بیش‌تر بدانند.»

اگر یک طرح کلی دقیق پشت اکس باشد، آن چیزی نیست جز ترکیب آشفته‌ای از تیزهوشان واخورده؛ آرایشی که لاجرم موجب ایجاد سایش میان اعضای این دسته می‌شود؛ آرایشی با امید ساخت محصول‌هایی برای حل سخت‌لگام‌ترین مشکل‌های دنیا. اما گوگل اکس، چنان‌که تلر آن را توصیف می‌کند، خود یک آزمایش است؛ تلاشی برای پیکربندی دوباره یک آزمایشگاه شرکتی عادی و تغییر طرزکار آن. در این مورد، عمل مذکور با قبول خطرهایی باورنکردنی در میان انواع گسترده‌ای از حوزه‌های فناوری انجام می‌شود، اما هیچ تردیدی در دور شدن از کسب‌وکار شرکت مادر وجود ندارد. هنوز مشخص نیست که این ایده نبوغ‌آمیز خواهد بود یا نابخردانه. هیچ الگوی تاریخی یا نمونه‌ای مشابه آن‌چه این گروه انجام می‌دهند، وجود ندارد.
با وجود این، روند مذکور از جهاتی منطقی به نظر می‌رسد. گوگل نیز خود را حلقه اتصالی در تاریخ یافته که پیش از آن وجود نداشته است و شاید هم دیگر تکرار نشود. شرکت به‌شکلی تصورنشدنی ثروتمند و از استعدادهای مختلف لبریز شد. این شرکت زمانی به اوج تأثیرگذاری خود می‌رسد که شبکه‌ها، قدرت محاسباتی و هوش مصنوعی بیش از پیش در بافت «عصر ماشینی دوم» تنیده می‌شوند؛ این عبارتی است که متخصصان فناوری برای توصیف دوره فعلی از آن استفاده می‌کنند و لفظ محبوب اهالی دره سیلیکون است. 
علاوه بر این، گوگل در تلاش است تا هسته کسب‌وکار غول‌آسای دیگری توسعه دهد تا واحد عظیم جست‌وجوی خود را تقویت کند. چرا این کار را از طریق اکس انجام ندهد؟ از نظر تلر این آزمایشگاه عاشق شکست، هم‌اکنون کاری را انجام می‌دهد که همه از انجام آن شانه خالی می‌کنند. شرکت‌های کوچک برای نوآوری‌های بزرگ و مخاطره‌آمیز منابعی کافی‌ ندارند. شرکت‌های بزرگ هم فکر می‌کنند چنین کارهایی سهام‌داران را می‌ترساند. رهبران سیاسی عقیده دارند که برای چنین کارهایی پول کافی نیست یا این‌که مجلس هر قدم اشتباه یا شکستی را به شکل یک رسوایی ترسیم می‌کند. تلر می‌گوید: «این روزها وقتی حرف نوآوری‌های بنیادین و عجیب به میان می‌آید، هر کسی فکر می‌کند این کار، کاردیگران است.» البته ذکر این نکته نیز مهم است که این نوآوری‌های متهورانه، بر خلاف آن‌چه گوگل دوست دارد به نظر برسد، فقط به دلایل نوع‌دوستانه انجام نمی‌شوند. برای مثال، با وجود این‌که خودروهای بدون راننده قطعاً جان‌های زیادی را نجات خواهند داد، دست‌های راننده را هم آزاد می‌کنند تا به عنوان نمونه، در وب جست‌وجو کند یا از جی‌میل استفاده کند. بالون‌های وای‌فای نیز می‌تواند استفاده یک میلیارد کاربر بیش‌تر را از سرویس‌های گوگل در بر داشته باشد. با این حال، باز هم دشوار است که از ایده‌هایی که چنین نفس‌گیرانه آرمان‌گرا هستند، تقدیر نکرد. وقتی از تلر می‌پرسم چرا گوگل ترجیح داده است که به جای سرمایه‌گذاری روی چیزهای جذاب‌تر برای وال‌استریت، روی اکس سرمایه‌گذاری کند، صورت‌مسئله را از بنیان نادیده می‌گیرد. سپس لبخندی روی لبش باز می‌شود و می‌گوید: «آن یک انتخاب نادرست است. چرا باید گلچین کنیم؟»

باغ مخفی
گوگل اکس در کناره محوطه گوگل قرار گرفته و بخش زیاد آن در دو ساختمان سه‌طبقه آجرقرمز جای گرفته است. آزمایشگاه هیچ تابلویی در سردر خود ندارد، چنان‌که هیچ سایت رسمی‌ای هم ندارد (تلر می‌گوید اگر هم باشد، در هر صورت چیزی برای گذاشتن روی آن نداریم). ورودی اصلی ساختمان به یک کافی‌شاپ سلف‌سرویس کوچک می‌رسد. زیبایی‌شناسی فضای داخلی مدرن، ساده و صنعتی است. سمت چپ فضایی است شامل ده‌ها اتاقک و چندین اتاق کنفرانس. سمت راست نیز جای دوچرخه قرار دارد و ناهارخوری با یک تابلوی اخطارآمیز که اعلام می‌کند فقط کارکنان رسمی اکس حق ورود دارند. به‌جز این، نشانه دیگری مبنی بر حضور در یک آزمایشگاه فوق‌سری دیده نمی‌شود. بیش‌تر کارگاه‌های اشتراکی در طبقه پایین قرار دارند؛ در اتاق‌هایی با سقف بسیار بلند و نام‌های خیال‌بافانه‌ای همچون «قلعه جمجمه خاکستری». این اتاق‌ها همچنین پر از وسایل شخصی الکترونیک هستند و اکسرها (Xer) خمیده روی لپ‌تاپ‌شان در آن‌ها به چشم می‌خورند.
خاستگاه اکس به سال 2009 برمی‌گردد. زمانی که برین و بنیان‌گذار دیگر شرکت، لری پیج، تصمیم گرفتند سمت جدیدی با عنوان «مدیر بقیه» تعریف کنند. این شخص مسئول زیر نظر داشتن ایده‌هایی دور از کسب‌وکار اصلی شرکت بود. این مفهوم در سال 2010 به اکس تکامل یافت. به لطف تلاش سباستین تران و پشتیبانی برین و پیج، وقتی که آن‌ها خواستند یک خودروی بدون راننده بسازند، تران تلر را به‌عنوان یکی از مدیران خود برگزید. اما وقتی تران بیش از پیش به عمق فناوری توسعه خودرو وارد شد (و بعدتر به شرکت نوپای خود، اوداسیتی در حوزه آموزش آنلاین)، نظارت بر دیگر پروژه‌های اکس را رها کرد و این‌جا بود که تلر مسئولیت‌های تمام‌وقت روزانه را به عهده گرفت.

[تصویر:  do.php?img=1064]
ریچ دووال سرپرست گروه Rapid Evaluation است. او می‌گوید: «اگر یک ایده کاملاً دیوانه‌وار و غیرقابل قبول به میان آید، احتمالاً از سمت من آمده است.»

دو توضیح درباره این‌که اکس مخفف چیست، وجود دارد. در ابتدا، این حرف جا را برای یک نام بهتر در آینده نگه داشته بود، اما امروز معمولاً بیان‌گر جست‌وجو برای راهکارهایی است که با ضریب ده بهتر از جست‌وجوهای معمول است. برخی از اکسرهایی که ملاقات کرده‌ام، عقیده دارند که اکس نشان‌دهنده سازمانی است که فناوری‌هایی را می‌سازند که هم‌اکنون ده سال با تأثیرگذاری عمده و عمومی فاصله دارند.
این داستان نیز در نوع خود منحصر به فرد است. روزگاری بود که آزمایشگاه‌های شرکت‌ها بخش بزرگی از بودجه تحقیق و توسعه خود را صرف پروژه‌های بلندمدت و مخاطره‌آمیز می‌کردند، اما تمرکز فزاینده روی درآمدهای پایان هر سه‌ماهه و درک این موضوع که بازگشت سرمایه در پژوهش‌های طولانی‌مدت بسیار دشوار است، باعث شد شرکت‌ها تحقیقات کوتاه‌مدت را منطقی‌تر بیابند. اگر هم بخواهند به آینده دور فکر کنند یا حقوق یک ایده اولیه را از دانشگاه‌ها و آزمایشگاه‌های دولتی بخرند یا یک شرکت نوپای خلاق را ببلعند. 
تلر و برین با این کار مخالف نیستند، چنان‌که گوگل به‌تازگی شرکت انرژی بادی ماکانی را خریداری و به اکس تزریق کرد. اما گوگل بارها خرد مقبول کسب‌وکاری را در ازای اجرای ایده‌های تحقیقاتی دیوانه‌وار پس زده‌ و صبورانه منتظر بلوغ آن‌ها شده ‌است. به‌تازگی، وقتی پیج با انتقادهایی درباره سودمندی سرمایه‌ای که به اکس تزریق می‌کند روبه‌رو شد، هیچ تلاشی برای توجیه این موضوع نکرد. او در پاسخ به این نقدها گفت: «در کل، تقلای من این است که افراد را به سرمایه‌گذاری روی تحقیق و توسعه طولانی‌مدت ترغیب کنم.» او سپس اشاره کرد که مقدار سرمایه‌گذاری‌شده با توجه به درآمد کل گوگل مبلغ زیادی نیست و از جامعه مالی گله کرد: آن‌ها باید در اصل از او بخواهند سرمایه‌گذاری‌های بزرگ‌تر، مخاطره‌آمیزتر و طولانی‌مدت‌تری انجام دهد و نه کم‌تر.

پروژه‌های اکس از نظر کلی سه معیار مشترک دارند. نخست این‌که باید میلیون‌ها یا بهتر از آن، میلیاردها انسان را تحت تأثیر قرار دهند. همه باید یک راهکار بنیادی را به‌کار گیرند که این راهکار دست‌کم یک عنصر برای یادآوری داستان‌های علمی،‌ تخیلی داشته باشد. همگی آن‌ها باید فناوری‌هایی را برگزینند که هم‌اکنون یا در آینده نزدیک، دست یافتنی باشند. اما به گفته دووال، یک اصل یکپارچه دیگر هم هست که سه معیار را به یکدیگر متصل می‌کند: هیچ ایده‌ای نباید فزونشی باشد (یعنی روند آن مستلزم قدم‌های ریز به تعداد زیاد باشد و نه قدم‌های بلند و تعداد کم). دووال اعتراف می‌کند که ممکن است این حرف خیلی کلیشه‌ای به‌نظر برسد؛ جلوگیری دره سیلیکون از «قبول خطر‌پذیری‌های عظیم» عبارتی پیش‌وپا افتاده و سخیف شده است، اما او و همکارانش به دلایل اید‌ئولوژیک نیست که گرایش به قدم‌های کوچک را طرد می‌کنند. این باور آن‌ها دلایل عملی دارد. 
او می‌گوید: «انجام تقریباً هر کاری در این دنیا سخت است. برخاستن از تخت‌خواب در صبح نیز ممکن است برای من سخت باشد. اما تاختن به یک مشکل با ابعاد دو برابر یا ده برابر، به اندازه دو برابر یا ده برابر سخت‌تر نیست.»
دووال اصرار دارد که اغلب اوقات حمله کردن به بزرگ‌ترین مشکل‌ها آسان‌تر از «تلاش برای بهبود بخشیدن پنج یا دو درصدی به نمونه موجود، با طی یک فرآیند طولانی است.»بر اساس گفته او، مثلاً خودرو را در نظر بگیرید، اگر بخواهید یک خودرو با مصرف سه لیتر در هر صد کیلومتر بسازید، کار زیادی به گردن شما خواهد بود، با این حال، هنوز هم تأثیر زیادی روی مشکل بنیادین منابع سوختی و انتشار گازهای سمی نمی‌گذارد. اما اگر بخواهید یک خودرو با مصرف کم‌تر از نیم لیتر در هر صد کیلومتر بسازید (که در اصل به مشکل بنیادین موجود حمله می‌کند) لاجرم از عرف رها می‌شوید، زیرا نمی‌توانید طراحی موجود را تا این اندازه بهبود بخشید. 
در مقابل، باید از نو آغاز کنید و دوباره بررسی کنید که یک خودرو در اصل چیست. باید به انواع موتورها و سوخت‌ها فکر کنید یا به مواد عصر فضا فکر کنید که وزن کمی داشته ‌باشند و دوام آهن که فیزیک حمل‌ونقل را تغییر می‌دهد یا این‌که در مقابل اختراع یک جایگزین جدید، اساساً ایده خودرو را کامل دور بریزید. سپس شاید (فقط شاید)، به چیزی برسید که برای اکس ارزش داشته باشد.

به روش گوگل اکس
ایده‌های دیوانه‌وار باید از آزمایش‌های سخت، جان سالم به در ببرند. در این قسمت فرآیند طی‌شده در یک نمونه را مشاهده می‌کنید: پروژه لون برای عرضه وای‌فای.

1- مشکل شناسایی شد: گروه Rapid Evaluation در گوگل اکس در جریان معضلاتی قرار می‌گیرند که ارزش پی‌گیری دارند. Project Loon در اصل به‌ مثابه ایده‌ای در زمینه اتصال دستگاه‌های قابل حمل گوناگون آغاز شد. اما در ژوئن 2011، ریچ دووال، سرپرست Rapid Eval، تصمیم گرفت تمرکز را به سمت افزایش دسترسی به اینترنت در مناطق روستایی یا فقیر سوق دهد.
2- ایده توسعه یافت: لاک‌هید روی یک هواناو ارتباطی در ارتفاع کار می‌کند که بتواند در یک نقطه ثابت بماند، اما ساکن نگه داشتن چنان ساز و برگی کار بسیار دشواری است. دووال بینش دیگری داشت: اگر یک هواناو به هوا رود و یکی دیگر هم پشت آن باشد چطور؟ به بیان دیگر: بالن.
3- راهکار آزمایش شد: دووال تعدادی بالن هواشناسی 80 دلاری را به‌صورت آنلاین خریداری کرد و فرستنده‌های رادیویی را درون جعبه‌ای سوار کرد که قابل پیوست بود. سپس او این وسیله ابداعی را در مخزن آب سن لویی، در فاصله یک ساعتی گوگل، به هوا فرستاد و در زیر آن سوار بر سوباروی خود آن را دنبال کرد.
4- نمونه اولیه ساخته شد: مدیران اکس در ماه اوت 2011 رسماً مجوز آغاز پروژه لون را صادر کردند و گروهی را مأمور ساخت ناوگان کوچکی از نمونه‌های اولیه کردند. زر میچ هاینریک کار روی یک آنتن لون را آغاز کرد؛ اعضای گروهش یک سرای کوچک در کارگاه خود ساختند تا ببینند آنتن چگونه می‌تواند به محل اقامت مشتری‌ها ضمیمه شود.
5- محصول معرفی شد: اکس مایک کسِدیِ کارآفرین را وارد میدان کرد تا رونمایی از پروژه را به‌ منزله یک کسب‌وکار واقعی مدیریت کند. قدم نخست یک برنامه آزمایشی در نیوزیلند بود؛ جایی که در ژوئن 2013، لون برای مدتی به‌صورت زنده کار کرد. چنان‌که اکس توجه سرویس‌دهنده‌های جهانی ارتباطی را جلب کرده است، گروه به این فکر می‌کند که چه نوع الگوی کسب‌وکاری مناسب‌ترین مورد برای این کار است.
 

چاپ این مطلب

  بدافزارهایی با هدف سرقت گذرواژه کاربران اینستاگرام
ارسال کننده: farnaz - ۹۵/۲/۱۱، ۱۲:۴۷ صبح - انجمن: هک و امنیت - بدون پاسخ

[تصویر:  do.php?img=1060]

استقبال بیش از اندازه کاربران از شبکه‌های اجتماعی، باعث شده است تا مجرمان سایبری با جدیت تمام سرگرم طراحی ساز و کارهای ویژه‌ای برای دسترسی به اطلاعات کاربران باشند. مجرمان سایبری سعی می‌کنند، با گمراه ساختن کاربران به شیوه کاملا پنهانی به اطلاعات آن‌ها دسترسی داشته باشند. در حال حاضر اینستاگرام از جمله سرویس‌هایی است که میزبان اطلاعات شخصی کاربران است. در نتیجه هکرها سعی می‌کنند به شیوه‌های مختلف به گذرواژه کاربران اینستاگرام دسترسی پیدا کنند.
در نوامبر سال گذشته میلادی نرم‌افزاری موسوم به InstaAgent با این فرض که به کاربران اطلاع می‌دهد چه افرادی حساب کاربری آ‌ن‌ها در اینستاگرام را مورد بازدید قرار داده‌اند پا به عرصه ظهور نهاد. غافل از آن‌که این بدافزار برای سرقت گذرواژه کاربران طراحی شده بود. این بدافزار به سرعت از فروشگاه اپل استور حذف گردید، اما به‌نظر می‌رسد سازنده این بدافزار، تارکر بایرم با رویکرد یکسانی دومرتبه بازگشته است. با این تفاوت که این‌بار کاربران هر دو پلتفرم گوگل و اپل را هدف خود قرار داده است.
InstaAgent بدافزاری بود که موفق به دریافت تاییده از اپل و گوگل شده بود. اولین بار طراح نرم‌افزاری به نام دیوید ال آر (David L R) کشف کرد که نرم‌افزار InstaAgent با هدف به دست آوردن گذرواژه کاربران و ارسال آن‌ها به یک سرور ناشناخته طراحی شده است. حال که دو نرم‌افزار دیگری از بایرم به نام‌های InstaDecetor و InstaCare برای پلتفرم‌های اندروید و ios عرضه شده است، بار دیگر دیوید ال آر  اقدام به بررسی این نرم‌افزارها کرده است. نرم‌افزار InstaAgent با این شعار به میدان وارد شده که به کاربران اعلام ‌دارد چه افرادی حساب کاربری آن‌ها در اینستاگرام را مشاهده کرده‌اند. این نرم‌افزار با این وعده موفق شد، تعدادی از کاربران را فریب داده و گذرواژه آن‌ها را به دست آورد. قربانیان در این خصوص اعلام کردند بعد از استفاده از این بدافزار تصاویر تبلیغاتی ‌را در اینستاگرام خود مشاهده کرده بودند، بدون آن‌که در این خصوص کاری انجام داده باشند.

دیوید ال آر بار دیگر این دو نرم‌افزار را مورد بررسی قرار داده و کشف کرده است که هر دو نرم‌افزار در واقع بدافزار هستند. این دو نرم‌افزار به کاربر اعلام می‌دارند فهرستی از افرادی که بیشترین تعامل با حساب کاربری اینستاگرام آن‌ها داشته‌اند را به آن‌ها نشان می‌دهند. اما دیوید موفق به کشف یک بسته HTTPS مشکوک شده که از یک فرآیند پیچیده رمزنگاری استفاده می‌کند. به‌طوری که نام کاربردی و گذرواژه کاربر را دریافت کرده، آن‌ها را رمزنگاری کرده و در ادامه برای یک سرور نامشخص ارسال می‌کند. جالب آن‌که نرم‌افزار ارائه شده روی هر دو پلتفرم با این هدف طراحی شده است. دیوید ال آر در پست خود نوشته است: «من به‌طور دقیق نسخه iOS این نرم‌افزارها را مورد بررسی قرار دادم و متوجه شدم گذرواژه و نام کاربری اینستاگرام برای یک سرور نامشخص ارسال می‌شود. بررسی‌های بیشتر نشان داده است که الگوریتم سرقت گذرواژه و نام کاربری هر دو نرم‌افزار یکسان و هماهنگ با نرم‌افزار InstaAgent بوده است.»  برای اطلاعات بیشتر در مورد این بدافزارها و تحقیقات انجام شده از سوی دیوید به این دیدن لینک ها برای شما امکان پذیر نیست. لطفا ثبت نام کنید یا وارد حساب خود شوید تا بتوانید لینک ها را ببینید.
مراجعه کنید.
همچنین در بخش نظرات کاربران در فروشگاه iOS آمده است که بعد از استفاده از این نرم‌افزارها عکس‌های تبلیغاتی مشابه با فعالیتی که از سوی نرم‌افزار InstaAgent انجام گرفته بود به آن‌ها نشان داده شده است.

[تصویر:  do.php?img=1061]

توانایی بایرام در اخذ مجوز برای برنامه‌هایش در فروشگاه اپل در شرایطی که برنامه قبلی او به‌طرز کاملا محسوسی به سرقت اطلاعات حساب کاربری اینستاگرام کاربران می‌پرداخت، کمی عجیب به نظر می‌رسد. وجود بدافزارهایی به این شکل در فروشگاه اپل نشان می‌دهد که این شرکت در زمینه تایید نرم‌افزارها با مشکل روبرو است. اما نکته قابل تعمل این است که چگونه توسعه‌دهنده‌ای که نرم‌افزار او به عنوان یک بدافزار شناخته شده توانسته است، یک‌بار دیگر نرم‌افزار خود را در دو پلتفرم وارد کند. اینستاگرام بارها به کاربران خود هشدار داده است که مراقب نرم‌افزارهایی باشند که خارج از قاعده عمل کرده و سعی در اغفال کاربران دارند. هنوز هم اگر نگوییم صدها، بلکه ده‌ها نرم‌افزار ثالث وجود دارند که به کاربران اینستاگرام وعده می‌دهند که توانایی نمایش مشخصات دنبال کننده‌های آن‌ها (Follower) و ارائه امکانات پیشرفته را دارند. برنامه‌هایی که با هدف سرقت اطلاعات شخصی طراحی شده‌اند. اینستاگرام به کاربران خود گفته است که سعی نکنند از حساب کاربری خود به روش‌های غیر معمول استفاده کنند، به دلیل این‌که ممکن است صدمات جبران‌ناپذیری را در این خصوص متحمل شوند.

چاپ این مطلب

  افزونه‌های فایرفاکس که به بدافزارها پناه می‌دهند
ارسال کننده: farnaz - ۹۵/۲/۱۱، ۱۲:۱۵ صبح - انجمن: هک و امنیت - بدون پاسخ

[تصویر:  do.php?img=1057]

اگر در گذشته به شما می‌گفتیم رخنه یا آسیب‌پذیری در مرورگری شناسایی شده است و برای رفع آن باید وصله مورد نظر را دریافت کرده و آن‌را نصب کنید، اکنون به شما می‌گوییم، برای خلاص شدن از دست بدافزارها باید تعدادی از افزونه‌های مرورگر فایرفاکس خود را حذف کنید.

در کنفرانس هکرهای کلاه سیاه آسیا که چند وقت پیش در سنگاپور برگزار شد، عنوان گردید که افزونه‌های محبوب فایرفاکس که میلیون‌ها کاربر در سراسر جهان از آن استفاده می‌کنند، این قابلیت را در اختیار هکرها قرار می‌دهند تا در سکوت کامل سیستم قربانیان را به مخاطره انداخته و آزمون‌های امنیتی خودکار و دستی موزیلا و سندباکس این مرورگر را دور زده و یک درب‌پشتی روی سیستم قربانی باز کنند.
هکرها این توانایی را دارند تا از نقاط ضعفی که در ساختار افزونه‌ها قرار دارد استفاده کرده و به این شکل فعالیت مخرب خود را در پس‌زمینه افزونه‌های قانونی پنهان سازند. به‌طور مثال، هکرها این توانایی را دارند تا یک افزونه محبوب که در برگیرنده یک آسیب‌پذیری است را رونویسی کرده تا در حملات به شیوه مؤثری از آن استفاده کرده و کدهای مخرب را درون آن وارد کنند. کارشناسان امنیتی در این ارتباط گفته‌اند: «افزونه‌ها با دسترسی سطح بالا اجرا می‌شوند، در نتیجه به اطلاعات حساس دسترسی دارند. همین موضوع باعث می‌شود یک افزونه مخرب به داده‌های شخصی مرورگر کاربر، گذرواژه و منابع حساس سیستم دسترسی پیدا کرده و این اطلاعات را سرقت کنند.»
در کنفرانس امسال اعلام شد که نزدیک به 255 آسیب‌پذیری در افزونه‌های مختلف شناسایی شده است. جالب آن‌که افزونه‌هایی همچون NoScript با 2.5 میلیون کاربر و DownloadHelper با 6.5 میلیون کاربر و GreaseMonkey با 1.5 میلیون کاربر در این فهرست قرار گرفته‌اند. اما افزونه Adblock Pluse با 22 میلیون کاربر دارای هیچ‌ آسیب‌پذیری شناخته شده‌ای نبوده است. افزونه‌هایی که به آسیب‌پذیری‌ها آلوده بوده‌اند به هکرها این توانایی را می‌دهند تا کدهای مخرب خود را روی سیستم کاربران اجرا کرده، رخدادهای سیستمی را ثبت کرده، به شبکه متصل شده و قابلیت‌های مضاعف‌تری همچون تزریق بدافزارهای دیگر یا پیاده‌سازی شبکه‌ای از کامپیوترهای مطیع (Bot) را به وجود آوردند. پروفسور Ahmet Buyukkayhan از دانشگاه بوستون و پروفسور ویلیام رابرتسون از دانشگاه Northeastern به تشریح این شیوه مورد استفاده هکرها پرداخته‌اند. آن‌ها از یک چارچوب Crossfire برای شناسایی افزونه‌های آسیب‌پذیر استفاده کرده‌اند. تصویر زیر چهارچوب طراحی شده توسط این دو کارشناس را نشان می‌دهد.

[تصویر:  do.php?img=1058]

رابرتسون در این ارتباط گفته است: «همه ما به تولیدکنندگان مرورگرها اعتماد داریم. اما اگر کمی درباره ساختار افزونه‌ها فکر کنید، متعجب خواهید شد، چگونه افزونه‌ها این پتانسیل را دارند تا یک درب پشتی برای انجام فعالیت‌های مخرب در اختیار هکرها قرار دهند. به‌طوری که کدهای خود را در سطحی با مجوزهای بالا اجرا کنند. به‌طور معمول موزیلا از مکانیزم ترکیب تحلیل‌های خودکار و دستی و همچنین امضاء افزونه‌ها برای بررسی مخرب بودن یا ایمن بودن آن‌ها استفاده می‌کند، اما اگر این ساز و کار به درستی کار می‌کرد، مشکل را به ما نشان می‌داد. در حالی که در عمل شاهد چنین چیزی نیستیم. همین موضوع باعث می‌شود به توسعه دهندگان افزونه‌ها اعتماد نکنیم.» این دو کارشناس امنیتی در مدل مفهومی که برای این منظور به مخاطبان کنفرانس نشان دادند، موفق شدند یک نرم‌افزار مخرب را بارگذاری کرده و افزونه خود را با موفقیت در فروشگاه فایرفاکس قرار دهند. این بدافزار حتی موفق شد از سد تحلیل‌های پیشرفته سیستمی موزیلا به نام "بررسی کامل" با موفقیت عبور کند.  این افزونه که ValidateThiswebsite نام دارد تنها از پنجاه خط کد استفاده می‌کرد و هیچ کد پیچیده‌ای درون آن قرار نداشت.
رابرتسون در ادامه صحبت‌های خود گفته است: «هر چه افزونه‌ها به آسیب‌پذیری‌های پیچیده‌ای آلوده باشند، گسترده آلوده‌سازی آن‌ها بیشتر خواهد بود. مکانیزم بررسی کامل، بالاترین سطح امنیتی است که موزیلا از آن استفاده می‌کند.» افشای این الگوی حمله ماحصل تحقیقی دو ساله است. در مقطع فعلی موزیلا فهرستی از افزونه‌های مخرب که در بر گیرنده 16 آسیب‌پذیری هستند را در فهرست سیاه قرار داده است. اما با وجود این گزارش به احتمال زیاد این فهرست الگوهای دیگری که مهاجمان از آن استفاده می‌کنند را شامل خواهد شد. تصویر زیر الگویی که حملات بر پایه آن انجام می‌شوند، را نشان می‌دهد.

[تصویر:  do.php?img=1059]

همین موضوع باعث خواهد شد بر تعداد افزونه‌های آسیب‌پذیر افزوده شود. نیک نکوین مدیر محصول فایرفاکس موزیلا در این ارتباط گفته است: «طراحان از آگوست تا 18 ماه دیگر فرصت دارند به الگوی جدید webextensions مهاجرت کنند. با توجه به مخاطراتی این چنینی، ما هر دو بخش هسته محصول و پلتفرم افزونه‌ها را برای پیاده‌سازی امنیت بیشتر تکامل خواهیم داد.» مجموعه توابع ویژه افزونه‌های مرورگری که برای ساخت افزونه‌هایی مبتنی بر الگوی WebExtensions مورد استفاده قرار می‌گیرد، در اختیار توسعه‌دهندگان قرار گرفته است. توابعی که به صورت داخلی باعث افزایش امنیت افزونه‌های سنتی شده و از افزونه‌ها در برابر حملات خاصی که در کنفرانس کلاه سیاه‌های آسیا به آن اشاره گردید، محافظت به عمل می‌آورد. موزیلا در راستای امنیت بیشتر مرورگر خود در نظر دارد معماری چند پردازشی را به فایرفاکس و سندباکس  بیافزاید.

چاپ این مطلب

  راهنمای عمومی کارت گرافیک
ارسال کننده: saberi - ۹۵/۲/۱۰، ۱۱:۳۱ عصر - انجمن: سخت افزار - پاسخ (2)

[تصویر:  do.php?img=1047]

کارت گرافیک قطعه ای در  PC و یا لپ‌تاپ است که وظیفه پردازش تصاویر را به عهده دارد. واحد پردازش گرافیکی یا همان (GPU(Graphics Processing Unitداده‌ها را پردازش کرده و آنها را برای نمایش در مانیتور آماده می‌کند. در انتخاب یک کارت گرافیک مناسب فاکتورهای زیادی پیش رو هستند که در ادامه به بررسی هر یک می‌پردازیم.

فاکتورهای پایه در کارت گرافیک

گزینه‌های زیادی در انتخاب کارت گرافیک سهیم هستند و هر یک مرتبط با یک زمینه کاری هستند اما مهم‌ترین مواردی که باید به آنها توجه کرد در زیر به صورت لیست آورده شده‌اند که در ادامه به بررسی هر یک می‌پردازیم:
  • فرکانس( کلاک) پردازنده گرافیکی GPU
  • تعداد Shading Unit، TMU  و ROP
  • فرکانس( کلاک) حافظه کارت گرافیک
  • نوع حافظه
  • پهنای باند حافظه
  • حجم حافظه
  • نوع رابط PCIe

فرکانس( کلاک) پردازنده گرافیکی
GPU
وظیفه اصلی پردازش اطلاعات به عهده پردازنده روی کارت‌گرافیک است که به آن GPU می‌گویند. GPU‌ها عملکردی مشابه پردازنده‌ها دارند و هر یک حاوی تعدادی هسته و واحد‌های مختلف هستند. برای مثال در کارت GTX 960 از تولیدات انویدیا GTX 960 نام پلتفرم کارت گرافیک است که شامل پردازنده گرافیکی، نوع حافظه، پهنای‌باند و رابط PCIe می‌شود و پردازنده آن یا همان GPU، دارای معماری GM 107 است. پس زمانی که نوع پلتفرم کارت گرافیکی مشخص شود تا حدود زیادی می‌توان عملکرد آن را برآورد کرد. برای درک بهتر این موضوع تصویر زیر را مشاهده کنید.

[تصویر:  do.php?img=1048]

اما فرکانس GPU مفهومی مشابه با فرکانس در پردازنده ها یا همان CPUها دارد. سرعت کلاک GPUها معمولا با واحدهای MHz یا GHz (مگاهرتز یا گیگاهرتز) بیان می شود که میزان چرخه‌ها در واحد زمان را نشان می‌دهد. هر چه میزان این فرکانس بیشتر باشد بهتر است، اما باید توجه داشت که این موضوع تنها عامل مشخص کننده قدرت یک کارت گرافیک نیست. در واقع فرکانس مشخص می‌کند چه تعداد پردازش در واحد زمان انجام می‌شود. یکی از تفاوت‌های پردازنده گرافیکی و پردازنده مرکزی سیستم به همین فرکانس مرتبط است و در کارت‌های گرافیکی از فرکانس پایین‌تری استفاده می‌شود.

تعداد
Shading Units, TMUs و ROPs
Shading Units یا واحد‌های سایه‌زنی، پردازنده‌های استریم، هسته‌های کودا یا نام‌های دیگری که به این بخش داده شده نشان دهنده تعداد هسته‌های GPU است که تعداد بیشتر این واحد‌ها نشان از افزایش خطوط موازی پردازش تصویر می‌دهد. به عبارت ساده‌تر هر چه تعداد این واحدها بیشتر باشد پردازش تصاویر با سرعت بیشتری انجام می‌گیرد. دقیقا مانند پردازنده‌ها که هر چه تعداد هسته‌های پردازشی افزایش می یابد قدرت پردازنده نیز بیشتر می شود. در پردازنده‌های مرکزی معمولا از دو یا چهار هسته استفاده می‌شود اما فرکانس آنها بالاتر است در پردازنده‌های گرافیکی تعداد هسته‌ها بیشتر شده ولی در فرکانس پایین‌تری اجرا می‌شود. این ویژگی باعث می‌شود پردازنده گرافیکی بتواند در واحد زمان به دستورهایی زیادی که نیاز به توان پردازش بالا ندارند پاسخ دهد. به عنوان مثال یک تصویر سه‌بعدی را تجسم کنید که از میلیون‌ها پیکسل تشکیل شده و هر یک از آنها دارای یک مختصات جغرافیایی، مشخصات نور و رنگ و بسیاری موارد دیگر هستند در فریم بعدی ممکن است این پیکسل‌ها تغییر کنند تا تصویر جدیدی را نمایش دهند حال برای این کار لازم است تا پردازنده گرافیکی میلیون‌ها محاسبه را در کسری از ثانیه انجام دهد. هر چقدر تعداد هسته‌ها بیشتر باشد رشته‌های پردازشی بیشتری بطور موازی بررسی می‌شوند و در نتیجه سرعت فریم‌ها بالاتر می‌رود.

TMUs 

تصاویر سه‌بعدی که ما در بازی‌ها و سایر محتواهای نمایشی استفاده می‌کنیم دارای اجزای مختلفی هستند. برخی از این اجزا یا به عبارت دیگر برخی از این پیکسل‌ها متحرک هستند و در تصویر دائما تغییر می‌کنند اما برخی دیگر از بافت‌هایی تشکیل شده‌اند که از یک الگوی ثابت پیروی می‌کنند. به عنوان مثال سطح زمین، دیوارها، حتی بدنه اسلحه و لباس شخصیت‌های داستان از یک سری بافت ثابت تشکیل شده‌اند. واحدهای TMU در واقع وظیفه آدرس‌دهی به این بافت‌ها را برعهده دارند. در نسخه‌های اولیه کارت‌های گرافیکی این واحد در یک پردازنده مستقل قرار داشت اما اکنون به صورت قسمتی از GPU اجرا می‌شود.

graphics pipeline
پردازش‌های سه‌بعدی گرافیکی مانند یک خط تولید است که در هر مرحله یک قسمت به خروجی مرحله قبل افزوده می‌شود. در یک پردازنده گرافیکی به دلیل ساختار پایپ‌لاین‌ها تمام مراحل بطور موازی کار می‌کنند و پردازنده‌های امروزی می‌توانند میلیاردها محاسبه ژئومتری را در یک ثانیه انجام دهند. زمانی که یک محتوای سه بعدی پردازش می‌شود باید بتوان این تصویر سه‌بعدی را به یک تصویر دوبعدی تبدیل کرد تا با همان کیفیت در مانیتور قابل درک باشد و پایپ‌لاین‌ها سلسله مراتب این پردازش را مشخص می‌کنند. یک محتوای سه‌بعدی از تعداد بسیار زیادی خط و مثلث‌های کوچک تشکیل شده است که در کنار هم قرار می‌گیرند و یک موضوع را تشکیل می‌دهند اما هر یک از راس‌ها دارای ویژگی‌های مانند مختصات روی تصویر، مقادیر RGB برای رنگ‌ها، اندازه شفافیت، بافت، سطح بازتاب و موارد دیگر هستند. پس بطور مختصر می‌توان گفت پایپ‌لاین‌ها سلسله مراتب تبدیل اجزای یک تصویر سه‌بعدی برای نمایش در یک مانیتور دوبعدی را مشخص می‌کنند. در کارت‌های گرافیک جدید خصوصا پردازنده‌های ساخت انویدیا، پایپ‌لاین‌ها فقط مختص پردازش‌های گرافیکی نیستند و می‌توانند در ترکیب با اجزای دیگر برای پردازش‌های غیرگرافیکی نیز مورد استفاده قرار گیرند.

RO
Ps
(ROPs (Render Output Pipelines که معمولا تحت عنوان واحد های خروجی یا با عنوان raster operations pipeline بیان می شوند آخرین موارد از پردازش‌های نمایش تصاویر را انجام می‌دهند. وقتی که پیکسل‌ها به وسیله واحد‌های سایه‌زنی، محاسبه و پردازش شدند باید براساس عمق و توابعی دیگر مخلوط شوند و در کنار یکدیگر قرار گیرند. این کار توسط واحد ROP صورت می‌گیرد و جای پیکسل ها روی صفحه نمایش را تعیین می کند. در این مورد هم هر چه تعداد خطوط خروجی بشتر باشد تصاویر با سرعت بیشتری در صفحه نمایش داده می شوند و فرکانس نمایش تصاویر یا همان Pixel Rate بالا می رود.

فرکانس( کلاک) حافظه کارت گرافیک
تعریفی کاملا مشابه با کلاک GPU دارد با این تفاوت که اینبار چرخه ها در حافظه کارت گرافیک صورت می‌گیرد. کلاک (فرکانس) حافظه از این جهت اهمیت دارد که روی پهنای باند تاثیر می‌گذارد. هر چه فرکانس حافظه بالاتر باشد محتوای درون حافظه با سرعت بیشتری در اختیار سایر قسمت‌ها قرار می‌گیرند. حافظه ها معمولا به صورت DDR هستند به این معنا که در یک چرخه می توانند دوبار عمل خواندن و نوشتن را انجام دهند برای مثال اگر کارت گرافیکی دارای ۵۰۰ مگاهرتز فرکانس حافظه باشد در حالت موثر مقدار آن در ۲ ضرب شده و به ۱۰۰۰ مگاهرتز می رسد. بنابراین هر چه فرکانس بالاتری در اختیار باشد پهنای باند نیز افزایش یافته و سرعت خواندن و نوشتن افزایش می یابد که در نتیجه رزولوشن بیشتری همراه با تصاویر شفاف تر و با نویز کمتر دریافت خواهیم کرد. در کارت‌های گرافیک جدید که طی سال‌های اخیر معرفی شده‌اند این ضریب به چهار رسیده است و در واقع زمانی که فرکانس حافظه یک کارت با مقدار ۶ هزار مگاهرتز مطرح می‌شود می‌توان دریافت که کلاک فیزیکی حافظه معادل ۱۵۰۰ مگاهرتز است.

[تصویر:  do.php?img=1049]

نوع حافظه

حافظه‌های موجود در گرافیک‌های موجود در بازار به دو نوع DDR3 و GDDR5 تقسیم بندی می شوند. نوع حافظه با سرعت کلاک موثر حافظه و پهنای باند آن رابطه مستقیم دارد. هنگامی که نوع حافظه DDR3 باشد با توجه به مقدار کلاک حافظه حداکثر ۳۰ گیگابایت برثانیه پهنای باند خواهیم داشت در حالی که در GDDR5 مقدار پهنای باند تا ۳۸۴ گیگابایت بر ثانیه نیز می رسد. پس در انتخاب کارت گرافیک خود باید به به این نکته توجه کرد که کارت انتخابی از نوع حافظه GDDR5 باشد زیرا در این نوع حافظه مقادیر کلاک در ۴ ضرب می شوند (در DDR3 مقادیر در ۲ ضرب می شدند). در واقع حافظه‌های DDR3 از فرکانس پایین‌تری استفاده می‌کنند لذا این مقدار روی عملکرد آنها موثر است اما در مقابل قیمت این حافظه‌ها پایین‌تر از انواع GDDR5 است و معمولا در مدل‌های ارزان و متوسط استفاده می‌شوند.
البته نوع جدیدی از حافظه‌ها هم تحت عنوان HBM به تازگی توسط AMD در کارت گرافیگ‌های سری Fury استفاده شده که پهنای باند اسمی ۵۱۲ گیگابایت بر ثانیه را می‌تواند پشتیبانی کند.

پهنای باند حافظه

پهنای باند سرعت انتقال اطلاعات از GPU به حافظه گرافیک است. پهنای باند بیشتر باعث افزایش سرعت انتقال اطلاعات بین حافظه و GPU می شود و در نتیجه قدرت کارت افزایش می یابد.

حجم حافظه

باید توجه داشت که حافظه کارت گرافیک تاثیر زیادی در قدرت کارت گرافیک ندارد به این معنی که به عنوان یک انبار برای ارایه مواد مورد نیاز به پردازنده مورد استفاده قرار می‌گیرد. اگر محتوای گرافیکی حجیم نباشد، ظرفیت این انبار تاثیری بر عملکرد پردازنده نخواهد داشت اما اگر بازی‌های سنگین با گرافیک‌های فشرده و جزییات بالا را اجرا می‌کنید ظرفیت حافظه می‌تواند باعث کاهش سرعت شود زیرا در این شرایط فضای کافی برای ذخیره محتوا و انتقال آن به پردازنده وجود ندارد. حتما متوجه شده‌اید که ظرفیت حافظه را می‌توان با توان پردازش GPU‌متناسب دانست. به این معنی که اگر پردازنده قدرت زیادی نداشته باشد ظرفیت حافظه به عملکرد آن کمک نمی‌کند و اگر ظرفیت حافظه پایین باشد پردازنده باید منتظر ورود اطلاعات جدید بماند. این موضوع گاهی مورد سواستفاده شرکت‌ها قرار می‌گیرد به عنوان مثال برای یک پردازنده گرافیکی نسیتا ضعیف مثل جیفورس GT710 از ظرفیت‌ حافظه ۴ گیگابایت استفاده می‌کنند. در این شرایط کاربر با توجه به ظرفیت ۴ گیگابایت فریب خواهد خورد در حالی که با این پردازنده نمی‌توان بازی‌ها را اجرا کرد. حجم حافظه می‌تواند مزایای زیر را در بر داشته باشد:
  • بازی های جدید حافظه زیادی نیاز دارند. برای مثال اگر یک بازی در رزولوشن HD و سطح جزئیات Medium نیاز به ۱ گیگابایت حافظه داشته باشد در حالت FullHD و سطح جزئیات بالا این بازی نیاز به فضایی بیشتر از ۱ گیگابایت دارد تا به سادگی اجرا شود.
  • در مواردی که از چند مانیتور استفاده شود حافظه بیشتر کارت گرافیک بسیار سودمند است و باعث میشود تا در نمایگشر ها افت فریم نداشته باشیم.
  • اگر از کارت گرافیک برای پردازش‌های سیستم مثل اجرای فتوشاپ یا اتوکد کمک می‌گیرید ظرفیت حافظه می‌تواند سرعت کار را افزایش دهد.
بنابراین می‌توان گفت که بطور عمومی تفاوت چندانی بین کارت‌هایی مثل GeForce 840M که با ۴ گیگابایت و ۲ گیگابایت حافظه عرضه شده‌اند وجود ندارد هر چند ممکن است در برخی کاربردها این موضوع اهمیت پیدا کند.

قابلیت SLI و CrossFire:
SLI (در انویدیا) و CrossFire (در AMD) دو قابلیت مشابه هستند که امکان استفاده از دو یا چند کارت گرافیک به صورت همزمان را فراهم می‌کنند. در این حالت برای افزایش توان گرافیکی می‌توان دو کارت را در کنار هم قرار داد تا سرعت بیشتری در اجرای بازی‌ها و پردازش محتوا داشته باشند. افرادی که کاربردهای گرافیکی سنگین و رندرگیری های طولانی در نرم افزارهای سه‌بعدی‌ دارند از این قابلیت‌ها بهره زیادی می توانند ببرند. بنابراین موقع خرید کارت گرافیک باید به این موضوع نیز توجه کرد که کارت مورد نظر از این قابلیت پشتیبانی کند. این قابلیت در PC ها قابل درسترس‌تر است اما با این وجود لپ تاپ هایی با این قابلیت عرضه شده اند. برای مثال Y510 از لنوو که از گرافیک های GT 750M به صورت SLI استفاده می کرد.

[تصویر:  do.php?img=1050]

[تصویر:  do.php?img=1056]

چگونه قدرت دو کارت را با هم مقایسه کنیم؟

با یک مثال کار را آغاز می کنیم.
کارت گرافیک GeForce 840M را با کارت گرافیک GT 740M در نظر بگیرید.
GeForce 840M:
GPU clock: 1029 MHz, Memory: 1001 MHz and DDR3, Shaders / TMUs / ROPs: 384 / 16 / 8
GT 740M:
GPU clock: 980 MHz, Memory: 900 MHz and DDR3, Shaders / TMUs / ROPs: 384 / 16 / 8
حال محاسبه را آغاز می کنیم:
کارت GeForce 840M دارای ۱۰۰۱ مگاهرتز کلاک حافظه از نوع DDR3 است و این کارت دارای ۳۸۴ هسته پردازشی (واحد های سایه زنی) است که امتیاز این کارت می شود:
۱۰۰۱ × ۲(DDR3) = 2002 MHz
۲۰۰۲ MHz × ۳۸۴ = ۷۶۸,۷۶۸
در حالی که اگر همین محاسبات را برای کارت GT 740M انجام دهیم نتایج زیر بدست می آید:
۹۰۰ × ۲(DDR3) = 1800 MHz
۱۸۰۰ MHz × ۳۸۴ = ۶۹۱,۲۰۰
پس با این حساب نتیجه میگیریم که GeForce 840M قدرت بیشتری نسبت به GT 740M دارد.
به مثالی دیگر توجه کنید:
GTX 850M:
GPU clock: 902 MHz, Memory: 1001 MHz and DDR3, Shaders / TMUs / ROPs: 640 / 40 / 16
۱۰۰۱ × ۲(DDR3) = 2002 MHz
۲۰۰۲ MHz × ۶۴۰ = ۱,۲۸۱,۲۸۰
VS
GTX 860M:
GPU clock: 1020 MHz, Memory: 1253 MHz and GDDR5, Shaders / TMUs / ROPs: 640 / 40 / 16
۱۲۵۳ × ۴(GDDR5) = 5012 MHz
۵۰۱۲ MHz × ۶۴۰ = ۳,۲۰۷,۶۸۰
برای اینکه بتوانید اطلاعات کارت گرافیک خود را مشاهده کنید می توانید نرم افزار GPU-Z را دانلود کرده و آن را اجرا نمایید. برای مثال در زیر تصویر این نرم افزار را در لحظه نمایش اطلاعات کارت گرافیک مشاهده می کنید.

[تصویر:  do.php?img=1052]

[تصویر:  do.php?img=1055]

چاپ این مطلب

  ترانزیستورهای سه‌بعدی در پردازنده‌ها
ارسال کننده: saberi - ۹۵/۲/۱۰، ۱۱:۱۲ عصر - انجمن: سخت افزار - بدون پاسخ

[تصویر:  do.php?img=1044]

ترانزیستور قطعه‌ای است که برای تقویت و سوییچ جریان الکتریکی مورد استفاده قرار می‌گیرد و در نمونه‌های رایج دارای سه پایه است. جریان الکتریکی از طریق یکی از پایه‌ها وارد ترانزیستور می‌شود و سپس با سوییچ بین دو یا چند پایه دیگر، این جریان از ترانزیستور خارج خواهد شد ضمن اینکه این جریان هنگام خروج تقویت می‌شود و این دو ویژگی از مهم‌ترین دلایل تفاوت ترانزیستورها هستند. البته این تعریف را می‌توان برای درک عملکرد کلی ترانزیستورها استفاده کرد و آنچه در وسایل دیجیتال مورد استفاده قرار می‌گیرد اندکی با این مفهوم تفاوت دارد. امروزه در اغلب تجهیزات دیجیتالی، ترانزیستورها از طریق میدان القایی به تقویت جریان الکتریکی و ایجاد سیگنال کمک می‌کنند.
اینتل در فناوری جدید خود نسل نوینی از ترانزیستورها را معرفی کرده است که با عبارت سه‌بعدی شناخته می‌شوند زیرا می‌توانند در سه جهت فعالیت کنند. به دلیل استفاده از این شیوه به آنها tri-gate هم گفته می‌شود زیرا جریان الکتریکی از طریق سه مدخل وارد این ترانزیستورها خواهد شد. در این ترانزیستورها علاوه بر یک سطح افقی، دو سطح عمودی نیز در کنار آن دیده می‌شوند و سه سطح برای عبور الکترون‌ها ایجاد شده است که این شیوه باعث افزایش کارایی تا ۳۷ درصد می‌شود و در مقابل ۵۰ درصد انرژی کمتری برای دستیابی به کارایی مشابه در نسل قبلی نیاز است. اینتل دلیل این موضوع را افزایش القا و کاهش نشت الکترونی عنوان کرده است. این روش با اینکه چندان پیچیده به نظر نمی‌رسد اما عملکرد قابل توجهی دارد. ترانزیستورها در دو حالت روشن و خاموش فعالیت می‌کنند و با افزایش مدخل‌ها در حالت خاموش ممکن است تحت تاثیر میدان القایی ایجادشده از جریان الکتریکی، موقعیت ترانزیستور صفر نشود اما آنچه در عمل دیده می‌شود قطع کامل توان در حالت خاموش ترانزیستور است که این موضوع در کاهش مصرف توان نیز موثر خواهد بود. در مقابل امکان سوییچ سریع بین این دو وضعیت فراهم شده است و تراشه‌هایی که با استفاده از این شیوه ساخته می‌شوند عملکرد بهتری خواهند داشت.
یک ترانزیستور ۲۲ نانومتری می‌تواند در مدت یک ثانیه ۱۰۰ میلیارد بار تغییر وضعیت دهد و جالب است بدانید اگر قرار بود یک کلید چراغ را با همین تعداد دفعات، خاموش و روشن کنید حدود دو هزار سال زمان نیاز داشتید. نکته دیگر اینکه کارخانجات اینتل در هر ثانیه پنج میلیارد ترانزیستور تولید می‌کنند و تولیدات آن در یک سال به ۱۵۰ هزار تریلیارد (۱۵۰×۱۰۱۵ ) ترانزیستور می‌رسد. یکی دیگر از شگفتی‌های این ترانزیستورها نیز به ابعاد آنها مربوط می‌شود. به عنوان مثال اندازه نقطه‌ای که در انتهای این جمله قرار گرفته برابر با فضای لازم برای شش میلیون ترانزیستور است.

[تصویر:  do.php?img=1045]

 اینتل اعلام کرده است کلیه محصولات خود را در آینده با استفاده از این شیوه تولید خواهد کرد. جالب است بدانید ترانزیستورهای tri-gate سال‌ها پیش از سوی رقیب اینتل مورد توجه قرار گرفته بودند و در سال ۲۰۰۳ شرکت AMD اعلام کرده بود برای افزایش راندمان ترانزیستورها و کاهش نشت الکترونی از ترانزیستورهایی با سه دروازه استفاده خواهد کرد، با این حال بعد از آن AMD هیچ‌گاه به این شیوه اشاره نکرد و تنها در حد یک خبر باقی ماند. در اردیبهشت امسال اینتل خبر پردازنده‌های ایوی‌بریج را منتشر کرد که از این روش استفاده می‌کنند. البته این شرکت زمان طراحی این ترانزیستورها را سال ۲۰۰۲ اعلام کرد که تاکنون به مرحله اجرا نرسیده بود و اولین محصولات آن ۱۰ سال پس از بررسی آزمایشگاهی در سال ۲۰۱۲ وارد بازار خواهند شد.
اهمیت دستیابی به این فناوری جدید بسیار زیاد است، به طوری که از این پس پیش‌بینی می‌شود تمام تجهیزاتی که در آنها تراشه‌‌های دیجیتالی به کار رفته‌اند از ترانزیستورهای سه‌بعدی استفاده کنند. این محصولات تنها شامل پردازنده‌ها نمی‌شوند و می‌توان گستره وسیعی از تلفن‌های همراه تا تلویزیون‌ها را در این دسته قرار داد. سال‌ها پیش زمانی که اولین رایانه تولید شد در آن از ترانزیستورهای لامپی استفاده شده بود و مساحتی معادل یک زمین فوتبال داشت.

[تصویر:  do.php?img=1046]

چاپ این مطلب

  مفهوم CPU و APU در رقابت تجاری پردازنده‌ها
ارسال کننده: saberi - ۹۵/۲/۱۰، ۱۱:۰۷ عصر - انجمن: سخت افزار - بدون پاسخ

[تصویر:  do.php?img=1040]

در چند سال اخیر صنعت رایانه به سمت همگرایی تجهیزات رایانشی حرکت کرده و قطعات جدید با خصوصیاتی مانند یکپارچگی و کاهش اندازه نسبت به مدل‌های پیشین تولید می‌شوند. این تغییرات اگرچه کامپیوترها یا به عبارت دقیق‌تر دسکتاپ‌ها را هم شامل می‌شوند اما این محصولات در آخرین رده تغییرات قرار دارند و در واقع تجهیزات الکترونیکی مصرفی مانند تلفن‌های هوشمند، تبلت‌ها و نوت‌بوک‌ها را می‌توان نمونه‌های اصلی این فلسفه جدید عنوان کرد. در این سال‌ها رویکرد کاربران به سمت استفاده از وسایل کوچک‌تر تغییر پیدا کرده است با این حال هنوز هم قطعات اصلی یک سیستم رایانه‌ای مانند پردازنده، مادربورد، تراشه گرافیکی، حافظه و هارددیسک همان پلتفرمی است که در ۴۰ سال پیش ابداع شد و هنوز هم مورد توجه است. بنابراین صنعت رایانه و تولیدکنندگان با اینکه هنوز راه‌حلی برای یک پلتفرم جایگزین ندارند اما تلاش می‌کنند هر کدام از این مولفه‌ها را بر اساس فلسفه نوین رایانه‌ها بازطراحی کنند.
این حرکت که با تحول در تجهیزات قابل حمل آغاز شد در قدم‌های بعدی به دسکتاپ‌ها رسید و با انتقال بخش‌هایی از مادربورد مانند هسته گرافیک آنبورد، کنترلر بخش حافظه و کنترل‌کننده بخش PCIe به پردازنده ادامه پیدا کرد. این موضوع شاید جذابیت چندانی برای کاربران عمومی نداشته باشد و تنها نکته قابل توجه برای آنها تاثیری است که در هزینه‌ها داشته است با این وجود می‌توان گفت ما در آغاز یک عصر جدید برای رایانه‌ها هستیم که قدم‌ها اساسی آن با انتقال هسته گرافیکی به پردازنده برای رایانه‌ها قدتمند برداشته شده است. در این رویکرد، رایانه‌ها به دستگاه‌هایی کوچک با مصرف انرژی پایین و قدرت پردازش بالا تبدیل می‌شوند.

[تصویر:  do.php?img=1041]

در راه‌حل‌های قبلی، بخش گرافیکی در پردازنده تنها برای کاربردهای رایج و عمومی قابل استفاده بود و بنابراین نمی‌توانست کارت گرافیکی را برای کاربردهای جدی از سیستم جدا کند ولی در روش‌های جدید می‌توان بطورکلی کارت گرافیکی را فراموش کرد و حتی برای بازی‌ها نیز از قدرت هسته گرافیکی درون پردازنده کمک گرفت. البته توجه داشته باشید که این فرآیند هنوز در ابتدای راه است و شاید بتوان گفت اگر هسته‌های گرافیکی قبلی ضعیف‌ترین راه‌حل گرافیکی در تمام پلتفرم‌ها بودند هسته‌های فعلی را می‌توان با توان کارت‌های گرافیکی ضعیف و متوسط مقایسه کرد. اوایل سال ۲۰۱۱، اینتل با عرضه عمومی پردازنده‌های سندی‌بریج که همگی دارای یک هسته گرافیکی بودند، سیاست جدید این شرکت مبنی بر استفاده از بخش گرافیکی به همراه پردازنده در تمام محصولات را عملی کرد و پس از آن نیز AMD با تولید پردازنده‌های سری فیوژن، یک هسته گرافیکی کامل رادئون را در محصولاتش قرار داد. اینتل در ادامه قدرت بخش گرافیکی را افزایش داد و پردازنده‌های سندی‌بریج نه‌تنها در سیستم‌های اداری بلکه در رایانه‌های ارزان و متوسط خانگی هم بطور گسترده مورد استفاده قرار گرفتند. در همین ابتدا دو واژه APU وCPU مطرح می‌شود که شناخت آنها می‌تواند در تشخیص محصولات مختلف کارایی داشته باشد. در نگارش این مطلب از اطلاعات مقاله‌ای به نام Processors with Integrated Graphics  در سایت XBitlabs استفاده شده است.

APU و CPU
شرکت AMD نسل جدید پردازنده‌های خود را به نام فیوژن منتشر کرد و با اعلام اینکه آنها APU هستند، دسته‌بندی پردازنده‌های دارای بخش گرافیکی را به دو گروه تغییر داد. البته هر دو تولید کننده تلاش می‌کنند تا این دو گروه را مستقل نشان دهند بطوریکه مقایسه آنها اشتباه به نظر برسد. AMD با تاکید بر واژه APU حساسیت بیشتری نسبت به محصولات خود نشان می‌دهد ولی باید دید واقعا تفاوت این محصولات با یکدیگر چیست. عبارت APU‌ مخفف Accelerated Processing Unit است و برای تراشه‌هایی استفاده می‌شود که علاوه بر هسته پردازشی دارای یک هسته گرافیکی روی همان سطح تراشه و در ارتباط مستقیم با یکدیگر هستند. به این ترتیب بخش پردازشی یا CPU  (Central Processing Unit) در ترکیب با بخش گرافیکی یا GPU (Graphical Processing Unit) است. به این تراشه‌ها که دارای دو بخش پردازش و گرافیک یکپارچه هستند APU ‌گفته می‌شود. معماری هسته گرافیکی در APUها مشابه ساختار تراشه‌های گرافیکی مستقل است و در آنها نیز از پردازنده‌های جریانی یا استریم استفاده می‌شود با این حال بخش گرافیکی باید بتواند علاوه بر پردازش‌های گرافیکی دوبعدی و سه بعدی، در پردازش‌های عمومی نیز در کنار هسته پردازشی، کارایی سیستم را افزایش دهد. در نتیجه می‌توان گفت مهمترین تفاوت این تراشه‌ها در بخش نرم‌افزاری آن‌ها است و به عبارت دیگر این تراشه‌ها در مقایسه با ترکیب ساده یک هسته پردازشی و یک هسته گرافیکی و ارتباط مستقیم آنها با یکدیگر دارای انعطاف بیشتری هستند. ضمن اینکه برخی از محاسبات توسط پردازنده‌های موازی و پرتعداد بخش گرافیکی انجام می‌شود.

[تصویر:  do.php?img=1042]

پردازنده‌های سری فیوژن AMD که با نام لانو منتشر شدند دارای یک هسته گرافیکی Radeon HD در درون خود بودند که از فناوری ATI Stream و رابط نرم‌افزاری OpenCL 1.1 پشتیبانی می‌کرد. در این حالت هسته گرافیکی می‌تواند پردازش‌های محاسباتی را هم اجرا کند. نرم‌افزاری‌های متعددی وجود دارند که می‌توانند از توان پردازنده‌های استریم استفاده کنند و قابلیت‌هایی مانند رمزنگاری، کدگذاری، پردازش تصاویر سه‌بعدی و دوبعدی و رمزگشایی صدا و تصویر را انجام دهند. با این حال این موارد در تئوری و روی کاغذ عملکرد قابل قبولی دارند ولی در دنیای واقعی با پیچیدگی‌های زیادی روبرو هستند که باعث ایجاد تردیدهای جدی برای تبدیل APU به یک انقلاب پردازشی شده‌ است. نتیجه اینکه فعلا می‌توانیم بگوییم APU یک هسته پردازشی و یک هسته گرافیکی یکپارچه است و نه بیشتر. اینتل در مقابل AMD برای کاربرد اصطلاحات جدید اندکی محافظه‌کار عمل می‌کند و با اینکه در تمام پردازنده‌های سندی‌بریج از یک بخش گرافیکی مستقل HD استفاده شده است اما همچنان ترجیح می‌دهد محصولات خود را با همان عبارت سنتی CPU معرفی کند. این روش معقول به نظر می‌رسد زیرا بخش گرافیکی در سندی‌بریج که به عنوان رقیب اصلی پردازنده‌های لانو مطرح شد از رابط نرم‌افزاری OpenCL 1.1 پشتیبانی نمی‌کند و امکان ارتباط محاسبات مورد نیاز برنامه در هسته‌ گرافیکی بطور کامل برقرار نبود.

البته در پردازنده‌های ایوی‌بریج از این رابط پشتیبانی می‌شود. در این میان یک استثنا هم وجود دارد. اینتل در پردازنده‌های سندی‌بریج نسل جدیدی از موتورهای گرافیکی به نام Quick Sync را معرفی کرد که می‌توانند توان سخت‌افزاری لازم برای رمزگشایی ویدیویی را ایجاد کنند. این موتور پردازشی در پردازنده‌های نسل سوم ارتقا پیدا کرد با این حال مانند OpenCL نیاز به هماهنگی نرم‌افزاری و سخت‌افزاری دارد و کاربرد آن هم اجرای محاسبات مربوط به تصاویر است که باعث افزایش سرعت پردازش تا ۱۰ برابر می‌شود. در نتیجه می‌توانیم بگوییم سندی‌بریج و ایوی‌بریج هم پردازنده‌های هیبریدی هستند و در آنها علاوه بر بخش پردازشی، بخش گرافیکی نیز به اجرای نرم‌افزارها و محاسبات مورد نیاز آنها حداقل در موارد خاص کمک می‌کند.
با این توضیحات می‌توان گفت اگرچه این دو محصول از نظر معماری مشابه یکدیگر نیستند اما کار مشابهی را انجام می دهند. به همین دلیل ادعای مورد نظر این دو شرکت مبنی بر اینکه مقایسه این محصولات با یکدیگر اشتباه است چندان درست به نظر نمی‌رسد.

فیوژن و خانواده لانو
شرکت AMD بعد از خانواده پرطرفدار فنوم‌ها، معماری جدید پردازشی را در پردازنده‌های فیوژن معرفی کرده است که این پردازنده‌ها دارای ساختار یکپارچه پردازشی و گرافیکی هستند و این ساختار هم APU‌ نام دارد. پردازنده‌های فیوژن در خانواده‌ای به نام لانو منتشر شده‌اند و دارای سه زیر مجموعه هستند که با عبارت‌های A8، A6 و A4 شناخته می‌شوند. در مدل‌های بعدی این پردازنده‌ها با نام ترینیتی، گروه A10 نیز اضافه شد
بدلیل تغییر ساختار این پردازنده‌ها، دیگر از سوکت‌های قدیمی مانند AM3 و AM2 استفاده نمی‌شود و سوکت جدید به نام FM1 روی مادربوردهای سازگار با این پردازنده‌ها تولید شده است. این سوکت بطور اختصاصی فقط با پردازنده‌های لانو سازگار است. پردازنده‌های لانو دارای دو تا چهار هسته پردازشی هستند و اگر بخواهیم آنها را با مدل‌های قبلی این شرکت توصیف کنیم می‌توان گفت پردازنده‌های لانو شباهت ساختاری زیادی با پردازنده‌های اتلون ۲ دارند و در بخش گرافیکی نیز همان هسته‌های گرافیکی رادئون‌های سری ۵۰۰۰ در آنها دیده می‌شود. در مدل‌های قوی‌تر پردازنده‌های لانو از هسته‌های گرافیکی بهتری استفاده شده است و میان توان پردازشی و توان گرافیکی در این مدل‌ها رابطه مستقیم وجود دارد.

[تصویر:  do.php?img=1043]

سندی‌بریج و ایوی‌بریج
اینتل پردازنده‌های نسل دوم Core را با نام سندی‌بریج معرفی کرد که همگی دارای یک هسته گرافیکی مستقل درون پردازنده هستند ولی این هسته با بخش پردازشی یکپارچه نیست. سندی‌بریج‌ها همزمان با شروع نبرد تبلیغاتی در زمینه APU و CPU وارد گود شدند و پس از آنها، ادامه این راه به مدل‌های ایوی‌بریج واگذار شد.
برخلاف AMD اینتل از یک نوع سوکت برای تمام پردازنده‌های سندی‌بریج و ایوی‌بریج استفاده می‌کند که این پردازنده‌ها در سه گروه i3، i5 و i7 رده بندی شده‌اند. با اینکه همگی این پردازنده ها دارای یک هسته گرافیکی هستند اما تمام مادربوردها توان انتقال پردازش‌های گرافیکی را ندارند و برای این کار باید از مادربوردهایی با تراشه H61، H67 و Z68 استفاده کرد. پردازنده‌های لانو از نظر قیمت با پردازنده‌هایCore i3  و پنتیوم قابل مقایسه هستند.

چاپ این مطلب

  معرفی پردازنده‌های ایوی‌بریج
ارسال کننده: saberi - ۹۵/۲/۱۰، ۱۰:۵۶ عصر - انجمن: سخت افزار - بدون پاسخ

[تصویر:  do.php?img=1035]

اینتل معمولا پنج سال پیش از انتشار پردازنده‌ها از برنامه زمان‌بندی مشخصی پیروی می‌کند که شامل فناوری ساخت و معماری این محصولات می‌شود. اینتل این برنامه را با تیک‌تاک ساعت معرفی کرده است و بر اساس آن زمانی که به یک فناوری‌ساخت جدید دست پیدا می‌کند آن را با تیک نشان می‌دهد و زمانی که معماری پردازنده‌ها را در این فناوری ساخت ارتقا می‌دهد از عبارت تاک استفاده می‌کند. به عنوان مثال در فناوری ۴۵ نانومتری، مرحله تیک با ورود پردازنده‌های پنرین (Penryn) همراه بود و پس از آن نیز مرحله تاک با عرضه معماری نیهالم انجام شد. این فرآیند در فناوری ساخت ۳۲ نانومتر نیز ادامه پیدا کرد و در تیک اینتل، نسل اول پردازنده‌هایCore  با نام نیهالم با فناوری ساخت ۳۲ نانومتری تولید شدند که وست‌مر (Westmere) نام داشتند و در مرحله بعدی نیز نوبت به معماری سندی‌بریج رسید که بر اساس همان فناوری‌ساخت وارد بازار شد. حالا اینتل دوباره مرحله تیک را آغاز کرده است و در این مرحله توانسته از تکنولوژی ۲۲ نانومتر برای تولید دوباره همان معماری سندی‌بریج استفاده کند که پیش از این با تکنولوژی ۳۲ نانومتری تولید می‌شد. این نسل جدید با نام ایوی‌بریج (Ivy Bridge) معرفی شده و مانند گذشته، شامل محصولاتی برای رده دسکتاپ‌ و لپ‌تاپ‌ها است. ضمن اینکه کاهش فناوری‌ساخت این امکان را فراهم می‌کند که میزان مصرف انرژی و حرارت تولیدی کاهش پیدا کند و در مقابل بتوان محصولاتی کوچک‌تر و سبک‌تر تولید کرد.

[تصویر:  do.php?img=1036]

مهم‌ترین تغییر در پردازنده‌هایی که با نام ایوی‌بریج ایجاد شد به ترانزیستورهای این محصولات مربوط می‌شود. درون پردازنده‌ها صدها میلیون ترانزیستور وجود دارد و این قطعات بسیار کوچک عملیات پردازش را انجام می‌دهند. اندازه این ترانزیستورها به قدری کوچک است که برای مشاهده آنها از میکروسکوپ‌های الکترونی استفاده می‌شود و نمی‌توان آنها را با آنچه در بوردهای الکترونیکی می‌بینیم مقایسه کنیم. این ترانزیستورها به وسیله‌ لایه‌هایی از سیلیکون و فلزهای رسانا تولید می‌شوند و از نظر ابعاد می‌توان آنها را با سلول‌های خونی مقایسه کرد.

[تصویر:  do.php?img=1037]

ایوی‌بریج (Ivy Bridge)

در معماری ایوی‌بریج از ترانزیستورهای سه‌بعدی استفاده شده است و نخستین نمونه از آنها برای تجهیزات موبایل تولید شد. در نگاهی کلی به ساختار این پردازنده‌ها شباهت زیادی با مدل‌های سندی‌بریج دیده می‌شود و اگرچه فناوری‌ساخت تفاوت کرده است اما معماری این تراشه‌ها مانند نسل قبلی است. در این مدل‌ها یک هسته گرافیکی نیز روی سطح پردازنده قرار دارد که آن هم با فناوری ۲۲ نانومتری تولید می‌شود اما اولین عامل که تفاوت بین ایوی‌بریج و سندی‌بریج را آشکار می‌کند در تعداد ترانزیستورها مشاهده می‌شود. پردازنده‌های سری جدید دارای ۱.۴ میلیارد ترانزیستور هستند و این در حالی است که در پردازنده‌های ۳۲ نانومتری سندی‌بریج ۱.۱۶ میلیارد ترانزیستور به کار رفته بود. بنابراین ۲۰.۷ درصد افزایش در این قسمت مشاهده می‌شود و در مقابل اگر همان تعداد ترانزیستور سندی‌بریج به جای فناوری ۳۲ نانومتر با روش ۲۲ نانومتری تولید شوند حدود ۴۷.۳ درصد سایز اولیه وسعت خواهند داشت. نتیجه اینکه با وجود افزایش ۲۰ درصدی در تعداد ترانزیستورها، سطح تراشه باز هم کوچک‌تر شد.

[تصویر:  do.php?img=1038]

بخش حافظه درونی پردازنده‌های ایوی‌بریج تفاوت زیادی با مدل‌های سندی‌بریج ندارد و همان ساختار در این سری نیز دیده می‌شود. لایه سوم کش بین هسته‌ها، بخش گرافیکی و کنترلر حافظه مشترک است و حجم آن نیز در همان سطح هشت مگابایت تعریف شده است. کنترلر حافظه نیز از دیگر قسمت‌های بدون تغییر در ایوی‌بریج است. این بخش از حافظه‌های DDR3 و حافظه DDR3L پشتیبانی می‌کند که با ولتاژ ۱.۳۵ ولت اجرا می‌شوند، حرف L در انتهای نام این رم‌ها نشان‌دهنده عبارت Low Voltage است. با این حال توان اورکلاک در این قسمت افزایش قابل توجهی داشته است. در نسل قبلی میزان فرکانس رم‌ها تا ۲۱۳۳ مگاهرتز قابل افزایش بود که این مقدار در پردازنده‌های ایوی‌بریج به ۲۸۰۰ مگاهرتز رسیده است.
 در ابتدای مطلب شیوه زمان‌بندی تیک‌تاک اینتل مطرح شد و اینکه تغییر فناوری‌ساخت برای پردازنده‌ها یک تیک محسوب می‌شود و تغییر معماری را می‌توانیم یک تاک بنامیم. هسته پردازنده‌های ایوی‌بریج اکنون در مرحله تیک قرار دارند ولی هسته گرافیکی این پردازنده‌ها مرحله تاک را می‌گذارند و می‌توان انتظار داشت ساختار آن تغییر پیدا کند. در پردازنده‌های سری وست‌مر (نسل اول خانواده Core) برای پردازنده و هسته گرافیکی از دو فناوری‌ساخت متفاوت استفاده شد، به طوری که هسته پردازشی فناوری ۳۲ نانومتر داشت ولی هسته گرافیکی از فناوری ۴۵ نانومتر استفاده می‌کرد. در پردازنده‌های سندی‌بریج این دو فناوری یکپارچه شدند و هر دو بخش دارای فناوری‌ساخت ۳۲ نانومتر بودند. در ایوی‌بریج نیز از همین روش استفاده شده است و هر دو ۲۲ نانومتری هستند، ضمن اینکه تعداد واحدهای عملیاتی در بخش گرافیکی به ۱۶ عدد افزایش پیدا کرده که این تعداد در سندی‌بریج‌ها ۱۲ عدد بود.
در نسل قبلی دو نوع مشخصات برای بخش گرافیکی استفاده می‌شد که GT1 و GT2 نام داشتند. در GT1 تعداد شش واحد عملیاتی متشکل از هسته پردازشی، واحد سایه‌زنی و واحد اجرایی وجود داشت که در پردازنده‌های ارزان قیمت استفاده می‌شد. در GT2 این تعداد به ۱۲ عدد می‌رسید و مخصوص مدل‌های حرفه‌ای خانواده سندی‌بریج بود. در پردازنده‌های ایوی‌بریج این تعداد ۱۶ عدد است ضمن اینکه دو واحد پردازش بافتی نیز در کنار آن دیده می‌شود. البته این مشخصات در مدل‌های گران قیمت وجود دارد و مربوط به GT2 است.
اینتل مدعی است این روش کارایی پردازش سه‌بعدی را به طور قابل توجهی افزایش داده است ضمن اینکه این هسته‌ها از این پس با دایرکت‌ایکس نسخه یازدهم سازگار خواهند بود. از دیگر رابط‌های قابل پشتیبانی توسط بخش گرافیکی ایوی‌بریج می‌توان به OpenCL 1.1 و OpenGL 3.1 نیز اشاره کرد. رابط OpenCL به بخش گرافیکی اجازه می‌دهد در پردازش‌های سیستمی به بخش محاسباتی پردازنده کمک کند. توسعه بخش گرافیکی شامل خروجی‌های تصویری هم می‌شود و این پردازنده‌ها می‌توانند تا سه خروجی را تامین کنند که این مقدار در سندی‌بریج دو عدد بود.

[تصویر:  do.php?img=1039]

فناوری هایپرتریدینگ در این پردازنده‌ها بهبود پیدا کرده و با اینکه از همان ساختار قبلی استفاده می‌کند اما توان عملیاتی برای اجرای یک رشته پردازشی در ایوی‌بریج بهتر شده است. به عنوان مثال در پردازنده‌های سندی‌بریج بسیاری از ساختارهای درون پردازنده که برای فناوری هایپرتریدینگ طراحی شده بودند، در قالب پارتیشن‌های مستقل درونی عمل می‌کردند و هر کدام از آنها برای اجرای دستورالعمل‌ها ظرفیت مشخصی داشتند. زمانی که فرضا یک دستورالعمل با ۲۰ رشته پردازشی به پردازنده ارسال می‌شد، این دستورالعمل در قالب دو فرمان با ۱۰ رشته مورد پردازش قرار می‌گرفت و این عامل باعث می‌شد باقی ظرفیت هسته‌های منطقی خالی بماند. این مساله هنگام افزایش بار پردازشی حساسیت بیشتری ایجاد می‌کرد. در ایوی‌بریج این بافرها ارتقا پیدا کرده‌اند و از توان غیرفعال هسته‌های منطقی بهتر استفاده می‌شود. علاوه بر این تقسیم‌کننده دستورالعمل‌ها نیز نسبت به سندی‌بریج تا دوبرابر توان عملیاتی بیشتری دارد.
از دیگر بخش‌های قابل توجه در پردازنده‌های ایوی‌بریج توانایی امنیتی آنهاست که این ویژگی را می‌توان مدیون خرید شرکت مک‌آفی توسط اینتل دانست. راه‌ حل‌های امنیتی در ایوی‌بریج شیوه تازه‌ای را در حفظ امنیت داده‌ها در سطح سخت‌افزار معرفی کردند که از این به بعد بیشتر شاهد حضور آن در محصولات مختلف خواهیم بود. یکی از این راه‌ حل‌ها SMEP‌ نام دارد که از اجرای برنامه‌های مخرب در سطوح دسترسی پایین جلوگیری می‌کند.
اینتل در پردازنده‌های سندی‌بریج سه سطح ولتاژ را معرفی کرد که شامل LFM، نرمال و توربو هستند. ولتاژ FLM  به کمترین ولتاژ ممکن برای اجرای پردازنده اشاره می‌کند، به طوری که در سطوح پایین‌تر توان اجرای پردازنده متوقف خواهد شد. ولتاژ نرمال نیز انرژی لازم برای کار در شرایط عادی را نشان می‌دهد که این مقدار در حالت توربو که فرکانس هسته‌ها افزایش پیدا کرده‌اند بیشتر خواهد شد.

چاپ این مطلب

  معرفی حافظه کش در پردازنده‌ها
ارسال کننده: saberi - ۹۵/۲/۱۰، ۱۰:۴۵ عصر - انجمن: سخت افزار - بدون پاسخ

[تصویر:  do.php?img=1030]

کش در کامپیوتر اصطلاحی است که در مورد برخی قطعات مثل هارد و سی‌پی‌یو بکار می‌رود. کش معمولا در زیر مجموعه حافظه‌ها قرار می‌گیرد و کاربرد اصلی آن هم افزایش سرعت سیستم است. این فناوری پلی است بین یک منطقه بزرگ اطلاعات با سرعت پائین و محلی که این اطلاعات مورد استفاده قرار می‌گیرد. وقتی اطلاعات از روی هارد دیسک یا رم فراخوانده می‌شوند این اطلاعات قبل از اینکه به مقصد اصلی برسند در نقطه‌ای ذخیره می‌شوند که به این نقطه کش می‌گوئیم. سرعت انتقال اطلاعات از کش بالاتر از رم و هارد است و بخشی که نیاز به اطلاعات دارد می‌تواند با سرعت بیشتری به آنها دسترسی پیدا کند و در همین فاصله داده‌های دیگر را فرا بخواند یا آن‌ها را به خروجی‌ها منتقل کند.

[تصویر:  do.php?img=1031]

وقتی اطلاعات از روی رم فراخوانده میشوند ۶۰ نانوثانیه (یک ثانیه تقسیم بر ۶۰ میلیارد) طول می‌کشد تا این اطلاعات در دسترس قرار بگیرند که مدت زمان واقعا کمی است ولی وقتی به چرخه زمانی پردازنده دقت کنیم که تنها ۲ نانوثانیه است خواهیم دید این زمان برای پردازنده زمانی طولانی است. کش‌های اولیه ابتدا روی مادربورد قرار گرفتند و زمان دسترسی به اطلاعات را به ۳۰ نانوثانیه کاهش دادند و بعد مشخص شد که این مقدار هم کافی نیست و یک مرحله دیگر به آن اضافه کردند که این بار هر دو لایه درون پردازنده قرار گرفت و با همان سرعت پردازنده کار می‌کرد. بعدها این ساختار به کلی عوض شد و اکنون علاوه بر این دو لایه یک لایه دیگر هم به حافظه درونی پردازنده اضافه شده که شروع کار آن را می‌توان از زمان ورود پردازنده‌های چند هسته‌ای دانست.

امروزه تقریبا تمام هارد دیسک‌ها و DVD درایوها مجهز به این حافظه ذخیره کوتاه مدت هستند که به آن بافر هم گفته می‌شود اما در این قطعات معمولا از یک سطح حافظه استفاده می‌شود و مانند اغلب پردازنده‌های امروزی مجهز به دو و سه سطح از حافظه کش نیستند. با این حال همین مقدار هم تاثیر قابل توجهی در کارایی آنها دارد. نکته‌ای که در مورد کش باید توجه کرد قیمت این حافظه‌ها است. ظرفیت بیشتر کش ممکن است تاثیر مثبتی روی کارایی داشته باشد اما قیمت آن تا یک حد مشخص برای مصرف کننده قابل قبول است و به همین دلیل معمولا صرف نظر از توانایی‌های فنی در ساخت پردازنده این نکته هم مورد توجه قرار می‌گیرد. مثال آن هم حجم کش پائین در مدل‌های ارزان قیمت است.

[تصویر:  do.php?img=1032]

وظیفه تمام این لایه‌ها این است که تا حد امکان داده‌ها را نزدیک پردازنده‌ نگه دارند تا پردازنده مجبور به فراخوانی اطلاعات از فاصله‌ای دورتر با سرعت کمتر و زمان بالاتر نباشد. اینها باعث شده تا در ساختار لایه‌ها مخصوصا لایه دوم و سوم علاوه بر ذخیره اطلاعات مورد نیاز، از اشغال پهنای باند پردازنده با انتقال داده‌ها بین هسته‌ها و ایجاد ترافیک غیرضروری در این ناحیه خودداری شود.
شیوه ذخیره اطلاعات در لایه‌های مختلف نیز متفاوت است. داده‌ها می‌توانند به صورت انحصاری در یک لایه قرار بگیرند یا در لایه‌های مختلف تکرار شوند آنچه مشخص است این که در یک لایه اطلاعات تکرار نمی‌‌شوند و نمی‌توان دو داده همسان را در یک لایه پیدا کرد ولی با کاهش سطح لایه‌ها و برای نزدیک‌تر شدن اطلاعات به هسته‌های پردازشی این داده‌ها تکرار می‌شوند و در هر سطح می‌توان قسمتی از اطلاعات لایه‌ بالاتر را دید. اینتل و AMD سیاست یکسانی در این مورد ندارند به عنوان مثال در فنوم‌های AMD اطلاعات به صورت انحصاری در یک لایه هستند ولی در اینتل از روش جمع داده‌ها بین لایه‌ها استفاده می‌شود.

[تصویر:  do.php?img=1033]

فراخوانی اطلاعات از سمت کش نیز می‌تواند حالت‌های مختلفی داشته باشد. در یکی از این حالت‌ها تنها در یک مسیر اطلاعات روی کش کپی می‌شوند که مزیت‌هایی مثل آدرس‌‌دهی بهتر اطلاعات روی رم را دارد اما در مقابل چندین مسیر برای کپی کردن اطلاعات روی رم بکارگرفته می‌شوند که این روش هم مزایا و معایبی دارد. مزیت آن در این است که اطلاعات روی کش بازنویسی نمی‌شوند و زمان دسترسی به داده‌های رم کوتاه‌تر خواهد بود اما از طرف دیگر، مقایسه اطلاعات انتقال داده شده روی کش و رم باعث افزایش زمان تاخیر رم می‌شود. امروزه مشخص شده که  استفاده از چند مسیر انعطاف بیشتری را برای پردازنده ایجاد می‌کند و کارایی بهتری دارد. اینتل در پردازنده‌های خود مثل Core i7 و i5 در سطح L1‌ از هشت مسیر برای انتقال دستورالعمل‌ها و از ۴ مسیر برای انتقال داده‌ها استفاده می‌کند که در سطح L2‌ نیز تقریبا همینطور است و ۸ مسیر برای انتقال اطلاعات استفاده می‌شوند در حالی که در لایه سوم ۱۶ مسیر برای ارتباط گذاشته شده است.
اما در AMD شیوه متفاوتی به کار گرفته شده که از مهمترین دلایل تفاوت این نوع پردازنده‌ها با اینتل است. در فنوم‌های چهار‌هسته‌ای برای لایه اول تنها دو مسیر ایجاد شده که باعث کاهش زمان تاخیر می‌شود اما در کنار آن ظرفیت لایه اول افزایش داده شده و ۶۴ کیلوبایت برای دستورالعمل‌ها و ۶۴ کیلوبایت نیز برای داده‌ها است. AMD در لایه‌های بعدی تهاجمی‌تر عمل می‌کند بطوریکه در لایه دوم همان هشت مسیر را استفاده کرده که مشابه اینتل است ولی در لایه سوم ۴۸ مسیر برای انتقال اطلاعات فراهم شده است.
اولین سطح از کش دارای دو بخش است و محلی است که دستورالعمل‌های پردازنده و داده‌های مهم در آن قرار می‌گیرد. این سطح L1 نامیده میشود. AMD ساختار ۶۴ کیلوبایتی را به کش پردازنده‌هایش اضافه کرد و هر یک از این دو بخش (داده‌ها و دستورالعمل‌ها) دارای ۶۴ کیلوبایت حافظه ‌هستند در حالی که اینتل همچنان به ساختار ۳۲ کیلوبایتی متعهد مانده است. این لایه برای هر یک از هسته‌ها اختصاصی است و اطلاعات هر هسته در اختیار سایر هسته‌ها قرار نمی‌گیرد.

[تصویر:  do.php?img=1034]

کش در لایه دوم تا مدت‌ها به صورت مستقل برای هر هسته بود و حتی پیش از آن هم فقط AMD از این لایه درون CPU استفاده می‌کرد و در اینتل کش لایه دوم با هسته‌ها روی یک سطح نبودند. در واقع پس از معرفی فناوری ساخت ۱۸۰ نانومتری کش لایه دوم به سطح سیلیکونی CPU اضافه شد. با ورود پردازنده‌های Core 2 Due کش مشترک در اینتل خلق شد و لایه دوم بطور مشترک بین دو هسته مورد استفاده قرار گرفت و این روش در چهار هسته‌ای‌های اینتل هم ادامه پیدا کرد تا جایی که در چهار هسته‌ای‌های اولیه، دو کش L2 دیده می‌شد. زیرا این مدل‌ها چهار هسته‌ واقعی نبودند و از اتصال دو سطح سیلیکونی هر یک با دو هسته تشکیل شدند. البته دلیل اینتل برای این شیوه، مسائل اقتصادی و صرفه این مدل‌ها مطرح شد با این حال AMD ساختار جدید را در فنوم‌ها پیاده کرد که همراه با کش لایه سوم بود.
کش لایه سوم سال‌ها پیش ایجاد شد و البته مشکلات خاص خود را داشت بطوریکه بعد از استفاده IBM در سال ۱۹۹۵ این سطح حافظه چندان مورد توجه قرار نگرفت تا اینکه اینتل این لایه‌ها را در سال ۲۰۰۳ به رده حرفه‌ای محصولات خود اضافه کرد. نتیجه این شد که ایتانیوم و پنتیوم ۴ اکستریم، صاحب L3 شدند و نسل فنوم‌های AMD نیز از همان ابتدا با L3 همراه شدند هر چند که مدل‌های اولیه تنها ۲ مگابایت حافظه L3 داشتند و در مدل‌های بعدی هم بطور متوسط از ۶ مگابایت حافظه استفاده شد. در این مرحله اینتل توانست سطح بالاتری از کش را در لایه سوم ارائه دهد.

چاپ این مطلب

  چت‌بات چیست و چرا این‌قدر مهم است؟
ارسال کننده: elshan - ۹۵/۲/۹، ۰۳:۱۶ صبح - انجمن: گفتگوی آزاد - بدون پاسخ

[تصویر:  do.php?img=1004]

آینده‌ی ما با چت‌بات‌ها (Chat Bot) گره خورده؛ چه برایش آماده باشیم یا نه. این عبارتی است که به‌طور مستقیم یا تلویحی، از زبان رهبران شرکت‌های بزرگ تکنولوژی می‌شنویم. آن‌ها در پی ساخت پلتفرم‌هایی هستند که قادرند جای اپلیکیشن‌های امروزی‌مان را بگیرند؛ بات‌های (‌Bot) کوچک هوشمندی را در نظر بگیرید که به کلمات‌تان گوش می‌دهند و به شما در انجام کارها کمک می‌کنند. ساتیا نادلا، مدیر عامل مایکروسافت اخیرا گفته «این تکنولوژی‌ای است که از آن راه گریزی نیست.» فیسبوک هم Bot Store خود را راه انداخته است. اما می‌خواهیم بک بار دیگر ببینیم بات‌ها چه هستند، به چه دردی می‌خورند و از همه مهم‌تر شرکت‌های بزرگ در توسعه‌ی آن‌ها در چه مرحله‌ای قرار دارند. با دیجی‌کالا مگ همراه باشید.
     ‌    ‌
چت‌بات چیست؟
به زبان ساده، چت‌بات نرم‌افزاری است که به‌ شما در انجام کارها کمک می‌کند یا نقشی سرگرم‌کننده در زندگی‌تان بازی می‌کند. بات‌ها این پتانسیل را دارند که جای اپلیکیشن‌های امروزی‌مان را بگیرند. فرض کنید به  جای باز کردن اپلیکیشن هواشناسی، از یک بات در مورد وضعیت هوا بپرسید. در نهایت، کار به جایی می‌رسد که یک چت‌بات به دستیار شخصی‌تان تبدیل شده و همه‌ی کارهای شما را راست و ریست می‌کند. فرقی ندارد که بخواهید تاکسی بگیرید یا با کسی قرار ملاقات بگذارید؛ یک چت‌بات واحد باید از مدیریت همه‌ی این‌کارها بربیاید. همچنین پلتفرم‌های مرسوم مثل واتس‌اپ یا فیسبوک مسنجر، باید میزبانی چت‌بات‌های مختلف را برعهده بگیرند و به آن‌ها اجازه بدهند با کاربران ارتباط برقرار کنند. به‌طور مثال یک چت‌بات از یک شرکت هواپیمایی مطرح، در بستر پلتفرم واتس‌اپ به شما می‌گوید که پروازتان تاخیر داشته؛ چت‌باتی دیگر هم از شرکت پست به شما خبر می‌دهد که بسته‌تان ارسال شده. البته فکر نکنید همیشه پشت این بات‌های هوشمند، ربات‌ها هستند که با شما صحبت می‌کنند؛ خیلی وقت‌ها این بات‌ها فقط وظیفه‌ی انتقال اطلاعات به ما را انجام می‌دهد و در واقع پیام متخصص یا کارشناس را به ما منتقل می‌کنند.
‌‌‌‌‌      ‌‌‌‌
[تصویر:  do.php?img=1005]

آیا بات‌ها چیز جدیدی هستند؟

پاسخ کوتاه: خیر. پاسخ بلند: داستان بات‌ها به دهه‌ی ۶۰ میلادی برمی‌گردد. از دهه‌ها پیش ربات‌های سخنگویی برای سرگرم کردن مردم ساخته می‌شد. اما چیزی که مایکروسافت یا فیسبوک به دنبالش هستند، بسیار پیچیده‌تر از این حرف‌هاست.
      ‌
بات‌ها چگونه آینده را تغییر می‌دهند؟
بات‌های هوشمند نحوه‌ی استفاده‌ی ما از تلفن‌های هوشمند و کامپیوترها را دگرگون می‌کنند. به قول ساتیا نادلا، مدیر عامل شرکت مایکروسافت، این شرکت در نظر دارد «گفت‌وگو» (Conversation) را به یک پلتفرم جدید در دنیای کامپیوترها تبدیل کند. ما در سال‌های اخیر عادت کرده‌ایم که با کلیک روی آیکون نرم‌افزارها، اجرای اپلیکیشن‌ها و استفاده از باکس‌های جست‌وجو، به اطلاعات موردنظرمان برسیم. اما چت‌بات‌ها می‌توانند کل این فرایند را تغییر بدهند. در آینده (شاید از همین‌الان) شما می‌توانید از گجت‌تان در مورد وضعیت هوا بپرسید و چت‌بات با توجه به موقعیت جغرافیایی‌تان به شما می‌گوید که باید چتر با خود ببرید یا خیر. به عبارت ساده‌تر نه به اپلیکیشن نیازی است و نه به باکس جست‌وجو.
‌‌‌      ‌
آیا همه‌ی چت‌بات‌ها یک‌جور هستند؟
پاسخ این سوال هم منفی است. انواع و اقسام بات وجود دارد. از بات‌های کودن تا بات‌های باهوش. اگر یادتان باشد تا چند سال پیش وقتی از سرویس Google Now سوالی می‌پرسیدید، یکی درمیان پاسخ‌های اشتباه می‌داد. اما به‌تدریج به دوران بات‌های باهوش‌تر وارد می‌شویم. به‌طور مثال وقتی از یک بات هوشمند می‌پرسیم که هوا چطور است، باید با توجه به همه‌ی جوانب پاسخ‌مان را بدهد: مثلا باید بگوید «الان هوا آفتابی است» و همچنین بتواند با در نظر گرفتن جلسه‌ای که برای همان روز در یک شهر دیگر برای‌مان تنظیم کرده، اعلام کند که «اما برای عصر ]در فلان شهر[ هوا بارانی است؛ چتر را فراموش نکن».
‌‌‌‌‌       ‌
شرکت‌های مطرح در توسعه‌ی بات‌ها چه قدم‌هایی برداشته‌اند؟
مایکروسافت، اپل، فیسبوک و گوگل و چندین شرکت کوچک و بزرگ دیگر در حال توسعه‌ی پلتفرم‌هایی برای تولید چت‌بات‌ها هستند. آن‌ها همچنین با دستیارهای صوتی‌شان رقابتی سخت را آغاز کرده‌اند. در ادامه یک‌به‌یک تلاش‌های برخی از این شرکت‌ها را با هم مرور می‌کنیم.
‌‌‌      ‌
مایکروسافت و چت‌بات Tay
چند هفته پیش، مایکروسافت با چت‌بات Tay جنجال بزرگی به پا کرد. Tay در واقع چت‌باتی است که قرار بود به عنوان یک دختر ۱۴ ساله، ایفای نقش کند. شما وقتی این بات‌ را در مکالمات‌تان در توییتر یا اسنپ‌چت، تگ می‌کردید، او به گفته‌های شما واکنش نشان داده و پاسخ‌تان را می‌داد. اما این دختربچه‌ی معصوم در مدت‌زمانی‌ کوتاه به یک موجود نژادپرست و بددهن تبدیل شد!

[تصویر:  do.php?img=1006]

ماجرا از این قرار بود که عده‌ای به کمک هم، از نقص در سیستم یادگیری این چت‌بات سوء استفاده کرده و چیزهای بدی به او یاد دادند! باید بدانید که مایکروسافت به‌سرعت چت‌بات Tay را تعطیل کرد و گفت که این چت‌بات به‌زودی با بروزرسانی‌های بهتری برمی‌گردد.
‌‌‌‌‌‌      ‌
حضور مایکروسافت در چین با چت‌بات Xiaoice
برعکس پروژه‌ی ناموفق Tay، مایکروسافت یک چت‌بات متنی معروف دیگر هم دارد که در چین سر و صدای زیادی به پا کرده. این چت‌بات، Xiaoice نام دارد و بین نوجوانان چینی بسیار محبوب شده.

[تصویر:  do.php?img=1007]

این بات، گفت‌وگوهای قبلی با شما را به خاطر می‌سپارد. بسیاری از جوانان چینی ساعت‌ها با Xiaoice صحبت می‌کنند و به باهوش‌تر شدن آن کمک می‌کنند.

مایکروسافت، «کورتانا» را هم در آستین دارد
«کورتانا» (Cortana) نام شناخته‌شده‌ترین بات مایکروسافت است. باتی که ما معمولا از آن به عنوان دستیار صوتی یاد می‌کنیم. کورتانا در سطحی قرار دارد که باید آن را با «سیری» (Siri) شرکت اپل و «گوگل ناو» (Google Now) ‌مقایسه کرد. کورتانا، هم روی موبایل و هم روی کامپیوترهای شخصی در دسترس است.

[تصویر:  do.php?img=1008]

این دستیار صوتی مایکروسافت مثالی روشن از یک «بات یونیورسال» است. به چه معنا؟ به این معنا که این بات، فقط روی یک اپلیکیشن خاص کار نمی‌کند و در کل سیستم می‌توان از آن بهره گرفت. مدیر عامل مایکروسافت می‌گوید در آینده‌ای نزدیک صحبت‌های روزمره با دستیارهای صوتی به یک چیز عادی تبدیل می‌شود.
‌‌‌‌      ‌
اپل هم به «سیری» تکیه داده است
دستیار صوتی اپل، «سیری» (Siri) نام دارد. این بات به سیستم عامل محصولات اپل پیوند خورده است. با سیری، به‌صورت صوتی ارتباط برقرار می‌کنید. سیری هم یک چت‌بات به حساب می‌آید؛ چون ارتباط با آن در قالب گفت‌وگو انجام می‌شود.

[تصویر:  do.php?img=1009]

چت‌بات اپل در بین رقبایش، باهوش‌ترین نیست. اما با ورود پرقدرت مایکروسافت و فیسبوک به این حوزه، احتمالا اپل هم به توسعه و بروزرسانی سیری ادامه می‌دهد.
‌‌‌‌     ‌
فیسبوک با تمام قدرت روی پروژه‌ی M کار می‌کند
شرکت فیسبوک روی پروژه‌ای با نام MoneyPenny کار می‌کند که حاصل آن یک دستیار صوتی همه‌فن‌حریف با نام M است. فرض کنید می‌خواهید کفش بخرید؛ به‌جای این‌که شما با چندین بات فروشگاهی ارتباط داشته باشید، فیسبوک، یک بات همه‌کاره در اختیارتان قرار می‌دهد که بهترین گزینه‌ها را به شما پیشنهاد داده و در خرید کفش کمکتان می‌کند.

[تصویر:  do.php?img=1010]

البته دستیار صوتی M هنوز در مراحل توسعه‌ی اولیه‌ی خود به سر می‌برد. یک نکته‌ی مهم در مورد M‌ وجود دارد و آن این است که این چت‌بات به دخالت انسانی وابسته است. همان‌طور که در ابتدای این نوشته گفتیم، لزوما در پشت بات‌ها، ماشین‌های هوشمند قرار ندارد؛ M‌ هم از آن دست بات‌ها است. گویا مهندسان فیسبوک می‌خواهند برای پاسخ به سوالات پیچیده‌ی کاربران، از نیروی انسانی هم استفاده کنند.
‌‌‌‌        ‌  ‌‌‌‌   ‌‌
فیسبوک در پی ایجاد بزرگ‌ترین پلتفرم بات است
فیسبوک رسما با راه‌اندازی یک پلتفرم توسعه‌ی چت‌بات و یک bot store به این رقابت وارد شده. این اقدام فیسبوک به همان‌ میزان انقلابی است که وقتی اپل، Apple Store‌ خودش را راه انداخت. فیسبوک که حالا اینستاگرام، مسنجر و واتس‌اپ را در اختیار دارد، به دنبال راهی است که همچنان نفوذش را در بدنه‌ی مردم حفظ کند. این شرکت برای اپلیکیشن «فیسبوک مسنجر» (Facebook Messenger) برنامه‌های زیادی دارد. فیسبوک در نظر دارد مسنجر را به پلتفرمی هوشمند برای مکالمات روزمره‌ تبدیل کند. به‌طوری که کاربر بتواند از گرفتن تاکسی تا سفارش غذا را روی همین پلتفرم انجام بدهد.

[تصویر:  do.php?img=1011]

تا این لحظه بات‌های زیادی برای مسنجر فیسبوک تولید شده است. بات شرکت هواپیمایی KLM یکی از آن‌هاست. این سرویس در واقع یک بات خدمات مشتریان است که وضعیت پروازتان را چک کرده و در مورد تاخیرها یا مواردی این‌چنینی شما را آگاه می‌کند. فیسبوک در این اندیشه است که این نوع بات‌ها را به‌طور کامل جایگزین خدمات مشتریان سنتی بکند. پی‌نوشت: پلتفرم M به عنوان یک موتور بات عمل می‌کند. خود دستیار صوتی M روی پلتفرم wit.ai توسعه پیدا کرده. شرکت فیسبوک سال گذشته استارتاپ Wit.ai را تصاحب کرده بود.
‌‌‌    ‌
KiK؛ اپلیکیشنی که رقبای قدرتمندش را می‌ترساند
«کیک» (Kik) نام یک اپلیکیشن پیام‌رسانی است که از سوی نوجوانان به‌شدت مورد استقبال قرار گرفته. این اپلیکیشن همین حالا یک ‌Bot Store دارد؛ چیزی که فیسبوک ماه‌هاست می‌خواهد یکی برای خودش داشته باشد. شرکت‌های زیادی مثل فروشگاه زنجیره‌ای لوازم آرایشی Sephora، روی این اپ، بات اختصاصی‌شان را دارند و از آن برای تعامل با نوجوانان و جوانان استفاده می‌کنند. اما مدیر عامل شرکت Kik، ایده‌های بزرگ‌تری در سر دارد. او و تیمش قصد دارند امکان استفاده‌ی آفلاین از بات‌ها را هم برای کاربران فراهم کنند.

[تصویر:  do.php?img=1012]

آقای «تد لیوینگستون» (Ted Livingston) می‌گوید: «در طول زمان ما یک کاربرد بی‌نظیر برای بات‌ها پیدا می‌کنیم و آن چیزی نیست جز استفاده از آن‌ها در دنیای آفلاین.» از نقطه‌نظر او، باید کاربران به یک اپلیکیشن اتکا کنند و وقتی مثلا به یک رستوران وارد می‌شوند یک کد خاص را اسکن کرده و تمام! در واقع باید یک بات روی نمایشگر ظاهر شود و از این مرحله به بعد را خودش انجام دهد. کاربر نباید در مورد پرداخت کاری کند؛ حتی امکان سفارش خودکار غذای موردعلاقه‌ی کاربر هم باید فراهم باشد.
‌‌‌‌‌  ‌‌‌   ‌
گوگل به Google Now رضایت نمی‌دهد
سرویس «گوگل ناو» (Google Now) در دو سه سال اخیر خیلی خوب عمل کرده. این دستیار صوتی در انجام وظایفی مثل خواندن اطلاعات تقویم کاری، تحلیل ترافیک خیابان‌ها و برنامه‌ریزی برای زمان خروج‌تان از منزل، عالی عمل می‌کند. اما گویا این شرکت به چیز بزرگ‌تری می‌اندیشید.

[تصویر:  do.php?img=1013]

بلندپروازی‌های فیسبوک در زمینه‌ی بات‌ها، گوگل را بر آن داشته که به سراغ مدلی مشابه این شرکت برود. چندی پیش، وال‌استریت ژورنال گزارش داده بود که گوگل به دنبال ساخت یک اپلیکیشن پیام‌رسانی جدید است که با چت‌بات‌ها کار می‌کند.
‌‌‌       ‌
آمازون با الکسا می‌خواهد قواعد بازی را تغییر دهد
شرکت آمازون یک اسپیکر هوشمند با نام «آمازون اکو» (Amazon Echo) ساخته که با دستیار صوتی «الکسا» (Alexa) کار می‌کند. دستیار همه‌چیزدان آمازون می‌تواند برایتان خبر بخواند، آهنگ پخش کند یا وضعیت هوا را اعلام کند. همچنین شما می‌توانید از الکسا بخواهید اقلامی را به سبد خرید آمازون شما اضافه کند. از همه مهم‌تر این‌که کاربران می‌توانند خودشان شِبه-بات‌هایی‌ بسازند که با الکسا کار کند.

[تصویر:  do.php?img=1014]

یک مثال واقعی می‌زنیم: فکر کنید که به‌صورت صوتی از الکسا بخواهید برایتان تاکسی بگیرد؛ الکسا خودش با اپلیکیشنی مثل Uber ارتباط برقرار کرده و از آن می‌خواهد یک تاکسی برایتان بفرستد. البته دقت داشته باشید که خیلی از کسانی که کارشان تولید اپلیکیشن است، ممکن است از وجود چنین واسط‌هایی نگران باشند. به هر حال این یک واقعیت اجتناب‌ناپذیر است؛ در آینده‌ای نزدیک، واسط‌هایی مثل دستیار صوتی M، الکسا یا سرویس‌هایی مشابه، مسوولیت تعامل با شرکت‌ها را برعهده می‌گیرند و برای مثال، دیگر لازم نیست شما برای رزرو بلیت سینما یا قطار، مستقیما از طریق اپلیکیشن مربوط به آن سینما یا شرکت حمل‌ونقل، اقدام کنید.
‌‌‌   ‌‌‌‌‌  ‌‌
تلگرام و بلندپروازی‌هایش
طی یک سال گذشته اپلیکیشن تلگرام کاربران ایرانی را حسابی مجذوب خود کرده است. تلگرام در نسخه‌ی جدیدش، BOT API 2.0 را معرفی کرده که قابلیت‌های جدیدی را در اختیار کاربران قرار می‌دهد. بات‌های جدید می‌توانند انواع و اقسام محتواهای مختلف مثل MP3، ویدیو، استیکر یا انیمیشن را تولید کنند.



‌‌‌    ‌
برای این‌‌که بهتر در جریان این پلتفرم جدید قرار بگیرید، می‌توانید بات‌هایی مثل youtube ،@stickers@ یا music@ را امتحان کنید. البته یادتان باشد که باید پیش‌تر اپلیکیشن تلگرام‌تان را به نسخه‌ی جدید به روز کرده باشید. لازم به ذکر است که سال گذشته، تلگرام برای اولین بار پلتفرم بات خودش را معرفی کرده بود.
‌‌‌‌    ‌
Slack؛ کسب‌وکاری که بر پایه‌ی بات‌ها کار می‌کند
نام اپلیکیشن پیام‌رسانی Slack، جدیدا بر سر زبان‌ها افتاده. این پیام‌رسان که برای محیط‌های کاری و کاربری‌های حرفه‌ای ساخته شده، بر اساس بات‌ها کار می‌کند.

[تصویر:  do.php?img=1015]

در داخل این پلتفرم، شما به‌راحتی می‌توانید کارهایی مثل تنظیم ریمایندر را به وسیله‌ی بات شخصی‌تان در Slack انجام دهید. شرکت‌های مختلف و حتی رستوران‌ها در حال تولید بات‌هایی هستند که روی این پلتفرم کار می‌کند.
   ‌‌
این تازه اول راه است…
بنیان‌گذار سرویس Evernote که حالا سراغ پروژه‌های بزرگ‌تری رفته، اعتقاد دارد که بات‌ها بزرگ‌ترین اتفاق پس از معرفی اولین آیفون هستند. آقای «فیل لیبین» (Phil Libin) می‌گوید: «در سال ۲۰۰۷، وقتی برای اولین بار آیفون را در دست گرفتم، می‌دانستم در ۵ سال بعدش چه موج عظیمی راه می‌اندازد…حالا هم دقیقا همین حس را در مورد بات‌ها (رابط‌های کاربری مبتنی بر مکالمه) دارم.»
‌‌‌   ‌‌
با همه‌ اینها، آینده چه شکلی است؟
احتمالا، اول از همه با انقلاب بات‌های خنگ روبرو می‌شویم! سپس به‌تدریج نسخه‌های همه‌چیزدان، یکی‌یکی سرو کله‌شان پیدا می‌شود. سرویس‌هایی مثل آن‌چه فیسبوک، Kik یا آمازون اکو ارایه می‌دهند، فعلا در زمره‌ی بهترین‌ بات‌های اولیه هستند؛ اما بات هوشمندی که نهایتا با آن مواجه می‌شویم چگونه است؟ پیش‌تر با شما درباره‌ی Xiaoice صحبت کردیم.
این بات مایکروسافت در چین توانسته قلب میلیون‌ها نفر از مردم این کشور را بدزد. Xiaoice گوش شنوا و حافظه‌ی خوبی دارد. این بات مثال مناسبی برای بات‌ها هوشمند آینده است. دستیارهایی که کاربران با جان‌ودل حاضرند به آن‌ها اعتماد کنند.
‌    ‌‌‌‌‌‌‌‌

چاپ این مطلب