آیا زبان کلوژر میتواند جایگزین مناسبی برای زبان پایتون در حوزه هوش مصنوعی (ماشین لرنینگ، دیپ لرنینگ) باشد؟

آیا زبان کلوژر میتواند جایگزین مناسبی برای زبان پایتون در حوزه هوش مصنوعی (ماشین لرنینگ، دیپ لرنینگ) باشد؟

شدنش می شه اما این روزا به فریم ورکی که می خوان استفاده کنین بر می گرده و نه زبان

3 Likes

خیلی ممنون خب با این وجود میدونیم که فریم ورکا و لایبراری های زیادی برای پایتون هست
سوالم اینه ایا لایبرری ها و‌فریم ورک های مشابه یا بهتره بگم مناسبی برای کار در این حوزه برای زبان کلوژر موجود هستش؟

خیلی ممنون خب با این وجود میدونیم که فریم ورکا و لایبراری های زیادی برای پایتون هست
سوالم اینه ایا لایبرری ها و‌فریم ورک های مشابه یا بهتره بگم مناسبی برای کار در این حوزه برای زبان کلوژر موجود هستش؟

فکر کنم بهتر باشه این سوالو توی انجمن کلوژر بپرسید

چندتا لایبرری برای ساخت شبکه‌ی عصبی در کلوژر هست، میشه از اونا استفاده کرد. بقیش هم که هیچ فرقی نمیکنه مثل هر زبان دیگه‌ای میشه شبکه‌ی عصبی ساخت، چون واقعا این ما نیستیم که شبکه‌ی عصبی رو میسازیم، صرفا یه تعریف ساده میکنیم و یه سری input و output میدیم، کامپیوتر خودش شبکه رو میسازه.
پس تا زمانی که منظور شما از هوش مصنوعی، Neural Networks باشه، فرقی نمیکنه چه زبانی استفاده کنید. فقط باید اون زبان لایبرریهاش رو داشته باشه (یا خودتون بخواید بنویسید)

1 Likes

مگ بغیر از شبکه عصبی چه مفاهیمی در هوش مصنوعی هست که با زبان های دیگ نمیشه انجام داد

مگ بغیر از شبکه عصبی چه مفاهیمی در هوش مصنوعی هست که با زبان های دیگ نمیشه انجام داد

در پایتان چندین کتابخانه هستند که هیچ زبان دیگری شبیه آنها را نداره
Deep learning فقط یک روش از یادگیری ماشین هستش. این بحث خیلی مباحث مربوط به حسابان ، احتمال و آمار داره
شما به کتابخانه های
Numpy, Pandas, scikit-learn, scipy نگاه کنید

1 Likes

پارادایمهای زیادی برای ساخت هوش مصنوعی طراحی شدن (توسط ریاضیدان‌ها) یه سریاش پیاده‌سازی شدن یه سریاش هنوز نه!
با فشردن شدن CPUها و افزایش قدرتشون، یکی از این پارادایمها که قدیما امکان استفاده ازش وجود نداشت، خیلی مطرح شد. اونم به نظر من بیشتر به خاطر صرفه‌جویی در نیروی کار هست، چون نسبت به بقیه‌ی روشها، نیاز به متخصصهای کمتر و زمان کمتری برای طراحی داره. اون‌هم Neural Network هست که همه میشناسنش.
یه سری dataset میدیم به کامپیوتر، و با استفاده از قدرت CPU، بین اون دیتاستها یه پترنی پیدا میکنیم که خیلی نزدیک به جواب صحیح هست (مثلا 99.5درصد) و این، میشه هوش مصنوعی ما.

چیزی که قدیما بیشتر ازش استقبال میشد Expert Systems بود که لیسپ‌ها خوب باهاش کنار میان.
الآن خیلی کم از این روش استفاده میشه به همون دلایلی که گفتم، ولی هنوز بعضی شرکتها باهاش کار میکنن. یکی از شرکتهای تولید کننده‌ی اتوموبیل الکتریکی (که اسمشو یادم نمیاد) با همین سیستم، راننده‌ی هوشمند خودشو طراحی کرده و ادعا میکنه از راننده‌ی Tesla Motors بهتره!

مطالعه‌ی بیشتر:

میتونیم خودمون هم لایبرری هوش مصنوعی بسازیم ؟؟
مثلا در یک زبان مدرن مث کلوژر

باید خیلی جالب باشه مخصوصا اون قسمت اخر گفته ات

که گفته راننده ش از راننده ی تسلا موتور بهتره!
ممنونم خیلی حرفات کامل بود

شدنش میشه، ولی خیلی دشواره. چون باید این مبحث های ریاضی خیلی خوب بلدباشی بعد تازه حتی اگه بتونی اینکار انجام بدی باید از نظر سرعت بهینه سازی کنی. آدم هایی که این کتابخانه هارو نوشتن اکثر در رشته های ریاضی و مرتبط به به یادگیری ماشین دکترا و فوق دکترا دارند

ممنون دقیقا درسته
خیلی جالبه که اینقدر روی پایتون سرمایه گذاری کردند دانشمندان هوش مصنوعی و ریاضی دان ها

روی jvm هم لایبرری های ماشین لرنینگ وجود داره؟

یک سوال دیگر ماشین ارلنگ beam برای کار در این حوزه نسبت به jvm مناسب تر نیست؟

هست ولی نه به اندازه پایتان.

نه ارلنگ تو کارهای ریاضی از jvm ضعیف تره و کتابخانه هاش از jvm هم کمتره

خیلی ممنونم بابت وقتی که گذاشتین

خیلی ممنونم بابت وقتی که گذاشتین❤.

1 Likes

نکته مهم در مورد شبکه‌های عصبی بحث اجرا روی GPU هستش، تا وقتی که شبکه عصبی شما روی GPU نتونه Train بشه مهم نیست چه قدر زبان‌ برنامه نویسی مناسب هست یا چه قدر لایبرری‌ها خوبه، عملا روی CPU آموزش ممکن نیست و خیلی کنده، حتی روی بعضی از شبکه‌ها که واقعا deep هستن یه خروجی گرفتن هم بدون GPU زمان‌بر و عملا غیرممکنه، چه برسه به عملیات Train
نمونش CRAFT که یه شبکه عصبی برای Text Detection هستش، روی یه عکس با عرض 4096 و طول حدودا همین‌قدر با CPU سیستمم (i7 4790k) حدود 20 ثانیه طول‌ می‌کشه و روی GPU سیستم با استفاده از CUDA (GTX 970) حدود 1 ثانیه.

2 Likes

فان فکت:
من I7 4790K و GTX750Ti دارم. سرعتشون برابره! هیچوقت یادم نمیاد چیزی رو تست کرده باشم که بیشتر از چندثانیه اختلاف داشته باشن.
البته من بیشتر ray tracing و particle simulation انجام دادم، ولی کارهای دیگه هم بوده.

2 Likes

اگه یه زمانی سر و کارت خورد به DL حتما تست کن خیلی تفاوت داره، البته باید GPU ات از CUDA پشتیبانی کنه، توی لینوکس خیلی هم راحته فقط نکته منفیش اینه که حتما باید درایور NVIDIA رو فعال کنی بعدش CUDA رو نصب می‌کنی.

1 Likes