text
stringlengths
1k
4.1k
سلام، اگه جایی دیدین برای لرستان کمک می‌فرستند اینا اقلام ضروریه: ۱ . پلاستیک ضخیم با عرض ۴ یا ۶ متر جهت ایزولاسیون پشت بام خانه‌های گلی در معرض تخریب (مهمترین نیاز) ۲ . روکش پلاستیکی چادر جهت عایق در مقابل آب (مهمترین نیاز) ۳ . مواد شوینده (صابون مایع و شامپو) ۴ . مواد بهداشتی (نوار بهداشتی و پوشک بچه) ۵ . چکمه پلاستیکی ۶ . نفت (خیلی ضروری و مهم) ۷ . فانوس جهت روشنایی چادرها ۸ . زیرانداز (حصیر پلاستیکی) ۹ . شیرخشک و غذای کمکی کودک ۱۰ . کُلمن آب تانکر پلاستیکی آب (دو هزار لیتری) کنسرو و نان ۱۱ . چراغ والور یا چراغ نفتی ۱۲ . ظروف شامل : قابلمه، تابه، بشقاب، کتری، قوری فلزی و ... ۱۳ . لباس گرم (کلاه، کاپشن، ژاکت، شلوار ورزشی) ۱۴ . لباس زیر (زنانه، مردانه، بچگانه) ۱۵ . پتو (پتوی عادی، پتوی سربازی) ۱۶ . انواع نان : ترد و خشک و بیسکویت مثل ساقه طلایی مادر ۱۷ . چای کیسه‌ای و قند ۱۸ . چراغ پیشانی + باتری ۱۹ . غذاهای مدت دار کنسرو شده ۲۰ . کفش مناسب و مقاوم سایز های مختلف ۲۱ . دستکش و کلاه گرم کودکانه به نقل از: یک گروه کمک رسانی (لینکش رو بگیرم تکمیل میکنم خبر رو) ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
شرکت پردازش هوشمند ترگمان از میان علاقمندان به یادگیری عمیق در حوزه پردازش زبان طبیعی بالاخص ترجمه ماشینی کارآموز می‌پذیرد. شرایط: 🔸 دانش پایه از مباحث ریاضی یادگیری عمیق 🔹 تسلط به یکی از زبان‌های ++C یا پایتون 🔸 آشنایی کلی با لینوکس 🔹 امکان حضور در محل شرکت حداقل ۳ روز در هفته (تهران سهروردی) ✅ طول دوره حداکثر ۳ ماه بوده و برای کسانی که پایان‌نامه در این حوزه داشته باشند شرایط ویژه در نظر گرفته خواهد شد. ✅ در طول دوره چند پروژه عملی واقعی توسط کارآموز انجام شده و امکانات سخت‌افزاری لازم در اختیار وی قرار خواهد گرفت. ✅ کارآموزان برتر از امکان استخدام پس از پایان دوره نیز برخوردار خواهند بود. ✴️ دوره کارآموزی فاقد هزینه یا پرداختی است. ✴️ کلیه نتایج دوره کارآموزی به نام محقق و به صورت متن‌باز منتشر خواهد شد. ✴️ تنها یک لب‌تاپ معمولی کفایت میکند و سرور و جی‌پی‌یو از طرف ما تامین می‌شود 💠 در دوره‌های گذشته از کارآموزان غیر حضوری نتیجه مناسبی حاصل نشده در نتیجه از پذیرفتن کارآموز غیر حضوری مگر در شرایط خاص معذور هستیم جهت برقراری ارتباط : @Ziabary کانال هوش مصنوعی پایتون و لینوکس: @ai_python
#تبلیغاتـدرـکانال ما: ❇️ شرایط، هزینه ها و نحوه خرج شدن پولی که میدید 😬 هزینه تبلیغات در کانال: ▪️به ازای هر ساعت پست آخر ۱۰ هزار تومان ▪️به ازای هر هزار بازدید ۱۵ هزار تومان ▪️پست آخر و پین ۱۲ ساعت (از ساعت ۱۱ شب تا ۱۱ صبح) ۵۰ هزار تومان 😬 شرایط تبلیغ در کانال: 🔆 پیش از تبلیغ حتما پست مورد نظرتان را در یک پیام به آی دی @MeysamAsgariC ارسال کنید تا محتوای آن بررسی شود. 🔆 محتوای شامل موارد نقض حقوق کپی رایت، تبلیغات فیک و موضوعات سیاسی-مذهبی را نشر نمیدهیم. 😎 شرایط ویژه: 🌱 میتوانید به عنوان حامی کانال ما خودتان را ثبت کنید. 🌱 پرداخت هزینه ماهیانه ۱۰۰ هزار تومان باعث میشود که یک ماه حامی کانال ما شوید و ۲۵٪ تخفیف ویژه برخوردار شوید. 🤓 شرایط ویژه تر: ⚠️ اگر مطب جالبی در کانال خودتون درج کردید که فکر میکنید مهمه و جالبه و مرتبط هم هست بدید ما فوروارد میکنیم بدون هیچ چشم داشتی. ⚠️ اگر کسب و کار کوچکی دارید و تازه شروع کردید و هزینه تبلیغات رو نمیتونین بدید مهم نیست ما مجانی تبلیغ میکنیم فقط در گروههامون نزنید و اسپم نکنید. 🤔 پولی که برای تبلیغ میدید چی میشه؟ کجا خرج میشه؟ ▪️هزینه ای که برای تبلیغات پرداخت میکنید تماما (به علاوه هزینه ای که ادمینها از جیب خودشون میزارند) به حساب بنیاد کودک جهت حمایت از کودکان نیازمندی که میخواهند به تحصیل ادامه بدند واریز میشود. لینک بنیاد کودک #تبلیغاتـدرـکانال ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
🔴 اطلاعیه سازمان سنجش در خصوص عدم به تاخیر انداختن کنکور ♦️ متن اطلاعيه سازمان سنجش آموزش كشور در خصوص برگزاري آزمون كارشناسي ارشد ناپيوسته سال 1398👇 🔻 ضمن ابراز همدردي با هموطنان عزيزی كه در جريان سيل اخير در بخشهايی از شهرها و استانهای كشور، دچار خسارت شده‌اند، بدين‌وسيله به اطلاع داوطلبان متقاضی شركت در آزمون كارشناسی ارشد ناپيوسته سال 1398 میرساند، نظر به اينكه فرايند اجرايی آزمون مذكور طولانی بوده و ميبايست به نحوی برنامه‌ريزی شود كه نتايج نهايی در اوايل شهريورماه اعلام گردد، لذا آزمون مطابق برنامه‌زمان‌بندی اعلام شده قبلی در روزهای پنج‌شنبه 97/02/05 و جمعه 97/02/06 برگزار خواهد شد و اطلاعيه اين سازمان درخصوص حوزه‌های برگزاری، تاريخ و نحوه توزيع كارت در روز دوشنبه 98/01/26 از طريق سايت اين سازمان منتشرخواهد شد. 🔻 شايان ذكر است وزارت علوم، تحقيقات وفناوری و اين سازمان از زمان وقوع سيل، پيگير ارايه تسهيلات يا اختصاص سهميه مشابه زلزله زدگان از مراجع ذيصلاح براي داوطلبانی كه آسيب مستقيم ديده اند می باشد كه به محض حصول نتيجه جزئيات آن در دفترچه انتخاب رشته به استحضار داوطلبان عزيز خواهد رسيد. ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
یکی از جذابترین کاربردهای یادگیری عمیق (نظر شخصی) همین ماشین‌های خودران و جذابتر ازون Autonomus Flying Vehicle هست بخاطر علاقه‌ایی که شخصاْ به این کاربرد دارم و درحد توان شخصی هر از گاهی تحقیق (عملی) و تست‌هایی انجام میدم وقتی صحبت ازین چیزها می‌شه اولین شرکت‌هایی که جلب توجه می‌کنه ؛ گوگل - بایدو - اوبر هستند و نمی‌شه در این زمینه کار کرد و پروژه آپولو بایدو رو نشناخت طبق تعریف خودشون : Apollo is a high performance, flexible architecture which accelerates the development, testing, and deployment of Autonomous Vehicles. تمامی بخش‌ها و تمام اطلاعات و حتی HD MAP های خود بایدو (آپولو بخاطر کمک‌های بزرگش تو این زمینه و بهبود استانداردها بسیار معروف هست) بطور کامل در دسترس هست. یکی از بخش‌هایی که خیلی من رو به آپولو و کارشون علاقه مند کرد همین موضوع OpenSource بودن بود؛ به لطف این شرکت نقشه‌ها و سخت‌افزارهای لازم ؛ اتصالات بهینه و نحوه کالیبره کردن نیز در اختیار قرار گرفته اگر شما هم به این مباحث علاقه مند هستید و می‌خواید بیشتر آشنا بشید بنظرم لینک‌های زیر رو از دست ندید : https://github.com/ApolloAuto/apollo https://github.com/ApolloAuto/apollo/blob/master/docs/quickstart/apollo_3_0_quick_start.md https://github.com/ApolloAuto/apollo/blob/master/docs/quickstart/apollo_2_5_hardware_system_installation_guide_v1.md @Pytens
📌 #فناوری اوسینت (#OSINT) زندگی بشر، امروزه در فضایی کلان از اطلاعات جاری­ست. با رشد و گسترش شبکه‌های اجتماعی و فضای مجازی اطلاعات به صورت افسارگسیخته ­ای در حال تولید شدن است. هوش مصنوعی، ابرکامپیوترها و ریاضیات گسسته، دائما در حال توسعه یافتن برای پیدا کردن اطلاعات مناسب و در ظاهر دست نیافتنی از طریق این حجم عظیم از اطلاعات می­‌باشد. ⭕️ اما تحلیل این حجم عظیم از اطلاعات تا قرن­‌های دیگر توسط هوش مصنوعی امکان­پذیر نخواهد بود. ✅ اینجاست که #اوسینت به عنوان تکمیل ­کننده کار ماشین­‌ها و ابرکامپیوترها برای تحلیل آنچه هوش مصنوعی نمی‌تواند به دست بیاورد وارد می­‌شود و آن اطلاعات و تحلیل­‌هایی را که ریاضیات گسسته و هوش مصنوعی در رسیدن به آن در می­مانند را با شهود ساختاریافته انسانی تحلیل می­‌کند. اوسینت مجموعه علوم و تکنیک‌های #جستجوی اطلاعات و #منابع_عمومی است. اوسینت پیشرفته (که محتوای دوره­‌های بعدی خواهد بود) به موارد زیر می­‌پردازد: 🎯 نوشتن و توسعه اپلیکیشن­‌های جستجو 🎯 کدنویسی برای کار با کوئری­‌های هر مسئله 🎯 یافتن روش‌­های ضد اوسینت برای محافظت از اطلاعات 🎯 به کارگیری هوش مصنوعی، در تلفیق با شهود انسانی برای یافتن اطلاعات در واقع، دوره‌ی عمومی اوسینت، آموزش متدهای #سرچ_حرفه­‌ای موتورهای جست و جو در وب و معرفی و استفاده از نرم­افزارهایی است که قدرت جستجوی شما را به شکل خارق العاده‌­ای چندین برابر می­‌کند تا بتوانید اطلاعات ارزشمند علمی، تجاری، ژورنالیستی، سیاسی و یا حتی امنیتی را به دست آورید. ارزشمندی همین اطلاعات است که باعث شده تا اوسینت، کارفرمایان بزرگ و زیادی داشته باشد که به دنبال اطلاعات حیاتی زمینه فعالیت خود می­‌گردند و به دلیل وجود همین کارفرمایان است که این دوره، به صورت #آموزشی_استخدامی طراحی شده است. ♨️ آکادمی فن آسا با بهره گیری از اساتید شرکت جامع؛ تنها مجری اوسینت در کشور برگزار می نماید: کارگاه عمومی #آموزشی_استخدامی #کارآگاهی_در_وب (OSINT) ☎️ ۰۲۱-۲۶۷۰۵۹۶۲ ➕ @FanasaAcademy
How to Configure Apache and PHP for High Traffic Websites on Linux Server فرض کنید یک سرور دارید یک پست از وبسایت شما در جایی قرار میگیرد و هزاران بازدید کننده به سایت شما رجوع میکند در بهترین حالت اگر سایت شما با apache , php باشد سی یا شصت ثانیه طول میکشد تا وب سایت شما لود شود و دارای lag میباشد و در بدترین حالت وب سایت شما قادر به ارائه خدمات نمی باشد ولی با mpm_event این حجم از بازدید کننده را apache راحتتر میتواند کنترل و مدیریت کند برای استفاده از Apache MPM در توزیع های دبیان بیس اول از همه از نصب پکیج libapache2-mod-php خودداری فرمایید زیر با نصب این پکیج به صورت پیشفرض mpm_prefork فعال میشود که مشکل بالا را به خوبی نمیتواند رفع کند پس به ترتیب به روش زیر عمل کنید: apt update && apt install apache2 وقتی apache را نصب کردی با دستور زیر مشاهده میکنید که mpm event به صورت پیشفرض فعال است: apachectl -V سپس php را با دستور زیر فعال میکنیم: apt install php-fpm سپس پروتکل FastCGI را فعال میکنیم: a2enmod proxy_fcgi بعد کانفیگ پیشفرض php-fpm را فعال میکنیم: a2enconf php7.0-fpm و سپس apache را ریستارت میکنیم: systemctl restart apache2 برای استفاده از دیتابیس سرور و mysql کامند زیر را وارد میکنیم: apt install mariadb-server php-mysql برای استفاده از Apache MPM در توزیع های ردهت بیس به روش زیر عمل میکنیم ابتدا apache را نصب میکنیم: yum install httpd سپس با کامند زیر مشاهده میکنیم که به صورت پیشفرض mpm prefork فعال است: apachectl -V خب سپس با ستور زیر یک # در پشت ماژول mpm prefork قرار میدهیم و آن را غیر فعال میکنیم: sed -i '/mpm_prefork\.so$/s/^/#/' /etc/httpd/conf.modules.d/00-mpm.conf و سپس # پشت ماژول mpm event را برمیداریم: sed -i '/mpm_event\.so$/s/^#//' /etc/httpd/conf.modules.d/00-mpm.conf سپس با کامند زیر باید مشاهده کنید که event فعال شده است : apachectl -V سپس php-fpm و ماژول FastGCI را نصب میکنیم: yum install php-fpm mod_fcgid برای اینکه به apache در مورد چگونگی پردازش فایل های php کانفیگ کنیم تمام موارد زیر را در یک ترمینال کپی کنید و سپس اینتر را بزنید: cat <<PASTE > /etc/httpd/conf.d/php.conf # Redirect to local php-fpm if mod_php is not available <IfModule !mod_php7.c> <IfModule proxy_fcgi_module> # Enable http authorization headers <IfModule setenvif_module> SetEnvIfNoCase ^Authorization$ "(.+)" HTTP_AUTHORIZATION=$1 </IfModule> <FilesMatch ".+\.ph(p[3457]?|t|tml)$"> #SetHandler "proxy:unix:/run/php/php7.0-fpm.sock|fcgi://localhost" SetHandler "proxy:fcgi://127.0.0.1:9000" </FilesMatch> <FilesMatch ".+\.phps$"> # Deny access to raw php sources by default # To re-enable it's recommended to enable access to the files # only in specific virtual host or directory Require all denied </FilesMatch> # Deny access to files without filename (e.g. '.php') <FilesMatch "^\.ph(p[3457]?|t|tml|ps)$"> Require all denied </FilesMatch> </IfModule> </IfModule> PASTE که در دستورات بالا در قسمت sethandler میتوانید پروکسی مورد نظر خود را بگذارید سپس apache را ریستارت کنید: systemctl restart httpd.service و سپس php-fpm را استارت کنید: systemctl start php-fpm.service systemctl enable php-fpm.service #برنامه_نویسی #آموزش #لینوکس ❇️ @AI_Python
#تبلیغاتـدرـکانال ما: ❇️ شرایط، هزینه ها و نحوه خرج شدن پولی که میدید 😬 هزینه تبلیغات در کانال: ▪️به ازای هر ساعت پست آخر ۱۰ هزار تومان ▪️به ازای هر هزار بازدید ۱۵ هزار تومان ▪️پست آخر و پین ۱۲ ساعت (از ساعت ۱۱ شب تا ۱۱ صبح) ۵۰ هزار تومان 😬 شرایط تبلیغ در کانال: 🔆 پیش از تبلیغ حتما پست مورد نظرتان را در یک پیام به آی دی @MeysamAsgariC ارسال کنید تا محتوای آن بررسی شود. 🔆 محتوای شامل موارد نقض حقوق کپی رایت، تبلیغات فیک و موضوعات سیاسی-مذهبی را نشر نمیدهیم. 😎 شرایط ویژه: 🌱 میتوانید به عنوان حامی کانال ما خودتان را ثبت کنید. 🌱 پرداخت هزینه ماهیانه ۱۰۰ هزار تومان باعث میشود که یک ماه حامی کانال ما شوید و ۲۵٪ تخفیف ویژه برخوردار شوید. 🤓 شرایط ویژه تر: ⚠️ اگر مطب جالبی در کانال خودتون درج کردید که فکر میکنید مهمه و جالبه و مرتبط هم هست بدید ما فوروارد میکنیم بدون هیچ چشم داشتی. ⚠️ اگر کسب و کار کوچکی دارید و تازه شروع کردید و هزینه تبلیغات رو نمیتونین بدید مهم نیست ما مجانی تبلیغ میکنیم فقط در گروههامون نزنید و اسپم نکنید. 🤔 پولی که برای تبلیغ میدید چی میشه؟ کجا خرج میشه؟ ▪️هزینه ای که برای تبلیغات پرداخت میکنید تماما (به علاوه هزینه ای که ادمینها از جیب خودشون میزارند) به حساب بنیاد کودک جهت حمایت از کودکان نیازمندی که میخواهند به تحصیل ادامه بدند واریز میشود. لینک بنیاد کودک #تبلیغاتـدرـکانال ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
Bernstein Network is announcing the "Brains for Brains Young Researchers' Computational Neuroscience Award". The call is open for researchers of any nationality who have contributed to a peer reviewed publication (as coauthor) or peer reviewed conference abstract (as first author) that was submitted before starting their doctoral studies, is written in English and was accepted or published in 2018 or 2019. The award is endowed with a travel grant of 2.000 € to cover a trip to Germany, including participation in the Bernstein Conference 2019 in Berlin (www.bernstein-conference.de), and an individually planned visit to up to two German research institutions in Computational Neuroscience. Deadline for application is April 24, 2019, 2:00 p.m. CET (Application deadline will not be extended!) Detailed information about the application procedure can be found under: https://www.bernstein-network.de/en/the-network/awards/b4b2019 For inquiries please contact [email protected] Best regards, Kerstin Schwarzwälder اپلای بفرمایند دوستان نروساینسی و کامپیوتر مرتبط @ai_python
تولید جمله ای تصادفی با پایتون import random article = ["the", "a", "one", "some", "any"] noun = ["boy", "girl", "dog", "town", "car"] verb = ["drove","jumped","ran","walked", "skipped"] preposition = ["to","from", "over", "under", "on"] def random_int(): return random.randint(0,4) def random_sentence(): """Creates random and return sentences.""" return ("{} {} {} {} {} {}" .format(article[random_int()] ,noun[random_int()] ,verb[random_int()] ,preposition[random_int()] , article[random_int()] ,noun[random_int()])).capitalize() # prints random sentences for sentence in list(map(lambda x: random_sentence(), range(0, 20))): print(sentence) print("\n") story = (". ").join(list(map(lambda x: random_sentence(), range(0, 20)))) # prints random sentences story print("{}".format(story)) #پایتون #آموزش #فیلم #python ❇️ @AI_Python ✴️ @AI_Python_EN 🗣 @AI_Python_Arxiv
بارش باران با پایتون import numpy as np import matplotlib.pyplot as plt from matplotlib.animation import FuncAnimation import tkinter as TK fig = plt.figure(figsize=(7, 7)) ax = fig.add_axes([0, 0, 1, 1], frameon=False) ax.set_xlim(0, 1), ax.set_xticks([]) ax.set_ylim(0, 1), ax.set_yticks([]) n_drops = 50 rain_drops = np.zeros(n_drops, dtype=[('position', float, 2),('size', float, 1),('growth',float1),('color', float4)]) rain_drops['position'] = np.random.uniform(0, 1, (n_drops, 2)) rain_drops['growth'] = np.random.uniform(50, 200, n_drops) scat = ax.scatter(rain_drops['position'][:, 0], rain_drops['position'][:, 1], s=rain_drops['size'], lw=0.5, edgecolors=rain_drops['color'], facecolors='none') def update(frame_number): # Get an index which we can use to re-spawn the oldest raindrop. current_index = frame_number % n_drops # Make all colors more transparent as time progresses. rain_drops['color'][:, 3] -= 1.0/len(rain_drops) rain_drops['color'][:, 3] = np.clip(rain_drops['color'][:, 3], 0, 1) # Make all circles bigger. rain_drops['size'] += rain_drops['growth'] # Pick a new position for oldest rain drop, resetting its size, # color and growth factor. rain_drops['position'][current_index] = np.random.uniform(0, 1, 2) rain_drops['size'][current_index] = 5 rain_drops['color'][current_index] = (0, 0, 0, 1) rain_drops['growth'][current_index] = np.random.uniform(50, 200) # Update the scatter collection, with the new colors, sizes and positions. scat.set_edgecolors(rain_drops['color']) scat.set_sizes(rain_drops['size']) scat.set_offsets(rain_drops['position']) animation = FuncAnimation(fig, update, interval=10) plt.show() #پایتون #آموزش #کلاس_آموزشی #آموزش_کلاسی #فیلم #python ❇️ @AI_Python ✴️ @AI_Python_EN 🗣 @AI_Python_Arxiv
مدرک گرایی و عباراتی چون «درس بخون یه چیزی بشی» نسلی را نابود کرد. نسلی که توانی بالا برای پیشبرد اقتصاد ملی بود. در صورتی با این معضل مواجه هستیم که بسیاری از دانشگاههای دوره های کاملا نامرتبط با اشتغال را در سرلوحه دروس خود دارند و در سطوح بالاتر (ارشد و دکترا) پایان نامه هایی تعریف میشود که هیچ ارتباطی با صنعت کشور ندارد. این عدم توازن در علوم تدریس شده و نیازهای کشور نتیجه ای جز شکست تحصیلکرده ها و صادرات نخبه نخواهد داشت. چاره اندیشی عمیق و تغییر ساختاری در این ساختار غلط شدیدا نیاز می باشد تا از نتایج آن مانند حجوم کنکوری ها به سمت رشته هایی مانند پزشکی جلوگیری شود چرا که نیازهای دیگر کشور همچنان بی پاسخ مانده است. صنایعی مانند خودرو که سالهاست درجا میزنند و صنایعی مانند کامپیوتر که با وجود پتانسیل بالای کشور هنوز شکوفا نشده اند. لازم به ذکر است که ایران در فرار مغزها رتبه اول را با ۱۵۰ تا ۱۸۰ هزار نفر دارد. به این معنی که سالیانه ۱۵۰-۱۸۰ هزار نفر که تحصیلکرده هم هستند از کشور مهاجرت میکنند. (نویسنده: میثم عسگری - جهت سلب مسیولیت نوشته از مابقی ادمین ها) ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
با عرض سلام و احترام بنده فتحی هستم دانشجوی دکترای رشته انفورماتیک پزشکی در دانشگاه علوم پزشکی ایران. به منظور تکمیل و جمع‌آوری داده‌های یک پژوهش، در زمینه "ایجاد یک سیستم پشتیبان تصمیم برای تشخیص اختلال اضطراب اجتماعی" یک وبسایت طراحی نمو‌ده‌ام که مشتمل بر دو پرسشنامه الکترونیک و تعدادی متغیر لازم برای پژوهش است. ✅ از دوستان گرامی تقاضا دارم اگر تمایل به شرکت در پژوهش دارید و میخواهید بدانید بر اساس تست‌های رایج روانشناسی، آیا مبتلا به اختلال اضطراب اجتماعی می‌باشید، روی لینک زیر کلیک کنید. زمان تقریبی برای انجام تست اصلی (SPIN) : 10 دقیقه زمان تقریبی برای انجام تست دوم (LSAS): 15 دقیقه ✅ هیچگونه اطلاعات خصوصی از شرکت کنندگان دریافت نمی‌شود لذا افراد شرکت‌کننده برای پژوهشگر کاملا ناشناس می‌باشند. درصورت شرکت در مطالعه دو تست رایج مربوط به اختلال اضطراب اجتماعی از شما گرفته و پس از انجام آنها نتیجه تست به شما نشان داده خواهد شد. ✅ نکته: در صورتی که از طریق گوشی همراه وارد سایت می‌شوید لطفا تنظیمات مرورگر گوشی خود را روی desktop site بگذارید و یا اینکه گزینه چرخش اتوماتیک (auto rotate) را روی گوشی فعال نموده و گوشی را بصورت افقی (landscape) نگه‌ دارید. ✅ اگر احیاناً با نت همراه اول مشکلی در ورود به سایت داشتید، لطفا لینک رو کپی و در مرورگری غیر از کروم باز نمایید. با تشکر 🔽🔽🔽 www.spdss.ir لینک ورود به سایت 🔹 SPDSS (Social Phobia Decision Support System)
How to Install Shopware with NGINX and Let's encrypt on Ubuntu 18.04 LTS shopware نرم افزار متن باز برای تجارت الکترونیک میباشد برای نصب این برنامه به ترتیب زیر عمل میکنیم اول timezone کانفیگ میکنیم: sudo dpkg-reconfigure tzdata چند تا پکیج اولیه را نصب میکنیم: sudo apt install -y curl wget vim git unzip socat bash-completion Step 1 - Install PHP and PHP extensions ابتدا php را نصب میکنیم همرا پکیج های اولیه: sudo apt install -y php7.2 php7.2-cli php7.2-fpm php7.2-common php7.2-mysql php7.2-curl php7.2-json php7.2-zip php7.2-gd php7.2-xml php7.2-mbstring php7.2-opcache Step 2 - Install IonCube Loader (optional) برای دانلود: cd /tmp && wget https://downloads.ioncube.com/loader_downloads/ioncube_loaders_lin_x86-64.tar.gz اکسترکت کردن آن: tar xfz ioncube_loaders_lin_*.gz پیدا کردن دیکشنری extensions php: php -i | grep extension_dir فرض میکنیم خروجی کامند بالا /usr/lib/php/20170718 باشد حالا ionCube Loader در فایل بالا کپی میکنیم: sudo cp /tmp/ioncube/ioncube_loader_lin_7.2.so /usr/lib/php/20170718/ حالا باید در فایل php هم آن را کانفیگ کنیم: sudo vim /etc/php/7.2/fpm/php.ini حال در فایل بالا خط زیر به صورت پایین تغییر دهید و آن را ذخیره کنید: zend_extension = /usr/lib/php/20170718/ioncube_loader_lin_7.2.so فایل را ذخیره کنید سپس کامند زیر را بزنید: sudo systemctl restart php7.2-fpm.service Step 3 - Install MySQL and create a database for Shopware ابتدا mysql نصب میکنیم: sudo apt install -y mysql-server سپس برای امنیت بیشتر mysql اسکریپت زیر نصب میکنیم و رمز روت برای mysql قرار میدهیم: sudo mysql_secure_installation سپس به mysql وصل میشویم: sudo mysql -u root -p سپس در mysql به ترتیب کامند های زیر را بزنید: CREATE DATABASE dbname; GRANT ALL ON dbname.* TO 'username' IDENTIFIED BY 'password'; FLUSH PRIVILEGES; exit در کامند های بالا username , password برای shopware انتخاب کنید و آن را به خاطر بسپارید Step 4 - Install Acme.sh client and obtain Let's Encrypt certificate (optional) وبسایت https نیاز به امن کردن آن نیست ولی با این حال میتوان آن را امن کرد با استفاده از acme.sh این کار را انجام میدهیم برای نصب کامند های زیر را وارد کنید: sudo su - root git clone https://github.com/Neilpang/acme.sh.git cd acme.sh ./acme.sh --install --accountemail [email protected] source ~/.bashrc cd ~ که در کامند بالا جای ایمیل باید ایمیل خود را وارد کنید برای گواهینامه تایید و رمزنگاری دامین خود میتوانید از RSA (کامند اول) یا ECC/ECDSA (کامند دوم) استفاده کنید: acme.sh --issue --standalone -d example.com --keylength 2048 acme.sh --issue --standalone -d example.com --keylength ec-256 For RSA: /home/username/example.com directory For ECC/ECDSA: /home/username/example.com_ecc directory خب حالا برای نگهداری مدارک دایرکتوری درست کنید به ترتیب زیر: mkdir -p /etc/letsecnrypt/example.com sudo mkdir -p /etc/letsencrypt/example.com_ecc حال برای RSA (کامند اول) یا ECC (کامند دوم) گواهینامه ها را نصب و کپی کنیم در دیکشنری های بالا: acme.sh --install-cert -d example.com --cert-file /etc/letsencrypt/example.com/cert.pem --key-file /etc/letsencrypt/example.com/private.key --fullchain-file /etc/letsencrypt/example.com/fullchain.pem --reloadcmd "sudo systemctl reload nginx.service" acme.sh --install-cert -d example.com --ecc --cert-file /etc/letsencrypt/example.com_ecc/cert.pem --key-file /etc/letsencrypt/example.com_ecc/private.key --fullchain-file /etc/letsencrypt/example.com_ecc/fullchain.pem --reloadcmd "sudo systemctl reload nginx.service" سپس با دستور exit از حالت روت خارج شوید ❇️ @AI_Python
Step 5 - Install and configure NGINX ابتدا آن را نصب کنید: sudo apt install -y nginx سپس آن را کانفیگ کنید: sudo vim /etc/nginx/sites-available/shopware.conf سپس به فایل بالا خط های زیر اضافه کنید: server { listen 80; listen [::]:80; server_name example.com; root /var/www/shopware; index shopware.php index.php; location / { try_files $uri $uri/ /shopware.php$is_args$args; } location /recovery/install { index index.php; try_files $uri /recovery/install/index.php$is_args$args; } location ~ \.php$ { include snippets/fastcgi-php.conf; fastcgi_pass unix:/var/run/php/php7.2-fpm.sock; } } در خط های بالا جای example دامین خود را وارد کنید سپس آن را سیو کنید و خارج شوید و برای فعال کردن آن کامند زیر را بزنید: sudo ln -s /etc/nginx/sites-available/shopware.conf /etc/nginx/sites-enabled برای چک کردن ارور syntax کامند زیر را بزنید: sudo nginx -t سپس سرویس را ریلود کنید: sudo systemctl reload nginx.service Step 6 - Install Shopware اول دیکشنری روت برای داکیومنتری برنامه ایجاد میکنیم: sudo mkdir -p /var/www/shopware سپس owner خودمان ست میکنیم: sudo chown -R {your_user}:{your_user} /var/www/shopware که در کامند بالا یوزر خود را وارد میکنید cd /var/www/shopware سپس برنامه دانلود میکنیم: wget https://releases.shopware.com/install_5.5.8_d5bf50630eeaacc6679683e0ab0dcba89498be6d.zip?_ga=2.141661361.269357371.1556739808-1418008019.1556603459 -O shopware.zip unzip shopware.zip rm shopware.zip سپس owner دیکشنری زیر را تغییر میدهیم: sudo chown -R www-data:www-data /var/www/shopware memory_limit = 256M and upload_max_filesize = 6M, and set allow_url_fopen = On if not already set in /etc/php/7.2/fpm/php.ini file در فایل بالا چک کنید اگر موارد گفته شده درست نبود آن را درست و ست کنید سپس سرویس php را ریلود میکنیم sudo systemctl reload php7.2-fpm.service سپس برنامه شما در دامین شما در قسمت زیر می باشد: http://example.com/backend ❇️ @AI_Python
Someone ask me “Can you make more beginner friendly learning path”? Yes, I do, Here’s the path How to learn data science with python for complete beginner from concept to code ✅ Step 1 Know Data Science https://lnkd.in/fMHtxYP ✅ Step 2 Understand How to answer Why https://lnkd.in/f396Dqg ✅ Step 3 Know Machine Learning Key Terminology https://lnkd.in/fCihY9W ✅ Step 4 Understand Machine Learning Implementation https://lnkd.in/f5aUbBM ✅ Step 5 Understand the basics of data structures and algorithms https://lnkd.in/gYKnJWN ✅ Step 6 Do more practice problems in Python https://lnkd.in/gGQ7cuv ✅ Step 7 Learn the scientific libraries (NumPy, SciPy, Pandas) Pandas: https://lnkd.in/g4DFNpJ ✅ Step 8 Machine Learning Programming in 20min: https://lnkd.in/g-Su_um Scikit-Learn Tutorial: https://lnkd.in/gSThdRD ✅ Step 9 Practice your machine learning skills Kaggle Machine Learning Tutorial: https://lnkd.in/gT5nNwS ✅ Step 10 Practice advanced library a.TensorFlow https://lnkd.in/fXKQkGy b.Dlib https://lnkd.in/fzPM2Gs #machinelearning #datascience #python ✴️ @AI_Python_EN
@uselinux Linux For ChromeBooks 💥پارسال گوگل قول داد تا اپلیکیشن های لینوکسی رو برای کروم او اس فراهم کنه: https://t.me/uselinux/532 ✨امسال تو کنفرانس بزرگ io: (تو لیست دانلود ما شماره 93 - Linux For ChromeBooks) از امسال تمام کروم بوک ها(chromebook) قادر خواهند بود تا لینوکس(ترمینال/اپلیکیشنها) را اجرا کنند نیاز به راه اندازی vm و دردسر خاصی نیست . با چند کلیک . (Setup Linux) میتونید لینوکس رو روی کروم بوک داشته باشید شما با اینکار ترمینال لینوکس رو همراه با apt-get خواهید داشت و همینطور هر اپی نصب کنید توی لانچر و دش کروم او اس قابل رویت خواهد بود براتون. @uselinux و اما در پشت پرده چه اتفاقی در حال رخ دادن است؟ تیم کروم بوک/کروم او اس . خودشون لایه ی vm/hypervisor اد کردن به کروم او اس Termina VM( LXD -> Guest Kernel of Linux ) CrOS ( crosvm -> Host Kernel - Linux ) و در نهایت یک container-host دبیان استرچ(9 اخری تا الان) لایه های امنیتی خیلی خوب و خاصی هم با Rust دولوپ کردند روی کروم او اس. و اما درباره امنیت , خیلی تلاش های خوبی کردن. شما هرکاری بکنید روی این لینوکس. نمیتونید کروم او اس رو تخریب کنید . یا دسترسی غیرمجازی رو بهش داشته باشید @uselinux خب . فایل ها (پروژه ها / کد ها) رو چطور میشه روی این لینوکس داشت؟ مسلما mount کردن یک دایرکتوری به /mnt/chromeos کار رو سخت میکنه. اما تیم کروم بوک . اینکار رو توی gui/ux تسهیل کردند . و بصورت دیفالت تو فایل منیجر Linux Files در اختیار دارید . و همینطور با راست کلیک روی هر فولدری میتونید با مسئولیت خودتون .اون دایرکتوری رو توی لینوکس share کنید(Share On Linux) درباره وب سرور ها چطور؟ وب سرور ها میتونن ترافیک رو ارسال و دریافت کنند .. و ریسک track کردن ترافیک و ارسال داده هست . فعلا شما میتونید با ران کردن وب سرور ها .. و expose پورت ها . بصورت لوکال روی کروم بوک دسترسی پیدا کنید . و فکری برای external shares نشده . @uselinux فرض کنید اندروید دولوپر هستید . و میخواهید با متصل کردن گوشی تون . دیباگ .و دولوپ کنید . این چطور ممکن است ؟ درحالی که اگر usbها بصورت پیش فرض فعال و مانت بشن . میتونن اطلاعاتی حیاتی از شما رو آنالیز کنن .. یا malware های خطرناکی به سیستم/لینوکس شما منتقل کنن. برای حل این مشکل هم . پرمیژن این قسمت بر عهده شماست .. و گزینه share on linux رو در اختیار دارید. @uselinux بالاتر گفتیم که این لایه vm بر پایه lxd/lxc هست .. این امکان برای کاربران حرفه ای تر فراهم هست که کانتینر های جدیدی بسازن و همینطور اسنپ شات هم بگیرن 😃 lxc list snapshot اسم این پروژه ظاهرا کراستینی(crostini) هست که لینوکس رو بصورت نیتیو روی کروم او اس برای کاربران قابل دسترس کرده . @uselinux
@uselinux 🔥یک توزیع دیگر خاموش شد! Antergos(Arch based Distro) توزیع انترگوس که انشعابی از آرچ میباشد خاموش شد . دولوپران اصلی پروژه علت را کمبود وقت ابراز کردند @uselinux انترگوس ۹۰۰هزار بار دانلود شده است (در ۵سال اخیر) و قطعا جزو توزیع های پرطرفدار بود همچنین تیم انترگوس افزود . کاربران انترگوس نگران نباشند . آپدیت های آتی را مستقیم از آرچ(مخازن) دریافت خواهند کرد . همچنین آپدیتی منتشر خواهیم کرد تا تمام پکیج های مخصوص انترگوس را از سیستم آنان پاک کند. سال 2017 نیز Apricity (آرچ بیس) متوقف شد . @uselinux آیا این زنگ خطری برای جامعه آزاد و دیگر توزیع هاست ؟‌ چندی پیش(حدودا ۲ماه قبل) لیدر لینوکس مینت در پستی ابراز کرد که تیم دولوپران مینت کمی دچار کمبود انگیزه و دچار حس افسردگی شده اند. @uselinux و علت آن را نیز عدم ارتباط موثر با کاربران و گرفتن فیدبک های خوب از تلاش های صورت گرفته ابراز کرد .. و افزود: چیزی که باعث افزایش انگیزه دولوپران میشود این است که حسی شبیه به قهرمان داشته باشند . و اگر در راستای چیزی تلاش میکنند . اگر به مقصود مورد نظر نرسند یا ساپورت/حمایت(روحی و..) نشوند دچار نقصان انگیزه خواهند شد @uselinux منابع: https://blog.linuxmint.com/?p=3736 https://betanews.com/2019/05/22/antergos-linux-dead/#comments @uselinux
لیست دانشگاه های مطرح در زمینه بینایی کامپیوتر/ماشین ComputerVision && MachineVision #بینایی_کامپیوتر #کامپیوترویژن #ماشین_ویژن USA Universities 🌎 Carnegie Mellon University, Robotics Institute 🌎 University of California Los Angeles 🌎 University of North Carolina at Chapel Hill 🌎 University of Washington 🌎 University of California Berkeley 🌎 Stanford University 🌎Massachusetts Institute of Technology 🌎 Cornell University 🔸 University of Pennsylvania 🔸 University of California Irvine 🔸 Columbia University 🔸 University of Illinois at Urbana-Champaign 🔸 University of Michigan 🔸 University of Southern California 🔸 Princeton University 🔸 University of Rochester 🔸 University of Texas at Austin 🔸 University of Maryland College Park 🔰 Brown University 🔰 University of Central Florida 🔰 New York University 🔰 Michigan State University 🔰 University of Massachusetts, Amherst 🔰 Northwestern University 🔰 University of California San Diego Universities in Canada: ♻️ University of Alberta ♻️ University of Toronto ♻️ University of British Columbia ♻️ Simon Fraser University ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
لیست دانشگاه های مطرح در زمینه بینایی کامپیوتر/ماشین قسمت دوم ComputerVision && MachineVision #بینایی_کامپیوتر #کامپیوترویژن #ماشین_ویژن Universities in Europe: 🔸INRIA France 🔸 University of Oxford 🔸 ETH Zurich 🔸 Max Planck Institutes, Germany 🔸 University of Edinburgh 🔸 University of Surrey 🔸 University of Freiburg 🔸 KTH Sweden 🔸 TU Dresden 🌎 TU Darmstadt 🌎 EPFL, Switzerland 🌎 KU Leuven 🌎 Computer Vision Center Barcelona 🌎 IDIAP Switzerland 🌎 Imperial College London 🌎 HCI Heidelberg 🌎 University of Manchester 🌎 University of Bonn 🔸 RWTH Aachen University 🔸 University of Amsterdam 🔸 TU Munich 🔸 Czech Technical University 🔸 University of Cambridge 🔸 TU Graz 🔸 IST Austria 🔸 Queen Mary University of London 🔰 University of Zurich 🔰TU Delft 🔰 University of Leeds 🔰 University of Bern 🔰 Lund University 🔰 University of Trento, Italy ♻️ University of Florence, Italy ♻️ University of Stuttgart ♻️ Saarland University ♻️ Ecole Centrale Paris ♻️ Ecole des Ponts ParisTech ♻️ University of Oulu ♻️ Karlsruhe Institute of Technology ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
یک پروژه‌ایی که به تازگی بهم پیشنهاد شد تشخیص یک سری اتفاقات خاص بود (فیلم و دوربین و ...) راه حل‌های زیادی تست شده بود روی این دیتاست و هرکدوم دقت‌های خوبی داشت (فکر می‌کنم تمومی روش‌های بادقت خیره کننده موجود تست شده) اما همچنان نیاز هست که دقت بیشتر از این باشه؛ بخاطر دوستی که با یکی از اعضای این تیم داشتم بهم پیشنهاد شد که به تیم کمک کنم و اگر ایده‌ایی دارم حتی اگر وقت پیاده‌سازی ندارم برای تیم شرح بدم تا اعضای اون کد رو پیاده سازی کنند. همیشه گفتم ؛ اول دیتا رو خوب بشناسید حتی اگر زمان زیادی رو خرجش می‌کنید (مطمئن باشید پشیمون نمی‌شید.) بعد از گرفتن اصل دیتاها و کلی بررسی کردن از گروه خواستم نمونه‌هایی که مدلهاشون درست عمل نمی‌کنه رو بهم بدند (از دیتای تست و مدلی که پیاده‌سازی شده برای مشتری و ...) این کار مشکلی نداره چون من نمی‌خوام پارامتر‌های مدل رو تغییر بدم یا تقلب کنم که مدل عملکرد بهتری داشته باشه (جلوتر متوجه می‌شید) دلیلم این بود که توی بررسی ۱۰۰ تا از دیتاها به یک نمونه خاص برخوردم که با دیتاهای قبلی تفاوت داشت توی دیتای تست هم از ۱۰۰ مورد حدود ۳۰ مورد همین حالت بود ؛ بعنوان مثال : فرض کنید تیم می‌خواد جاهایی که سگ وجود داره رو تشخیص بده اما تو بعضی از ویدئوها دوربین نقطه کور داره و سگ توی ویدئو دیده نمی‌شه البته که سگ وجود داره و این لیبلی هست که برای دیتا خورده. راهکار این نیست که دیتارو حذف کنیم یا دوربین بیشتر بذاریم و محدوده رو بزرگتر کنیم و دوباره دیتا جمع کنیم. براهکار کم خرج و بهتر چی می‌تونه باشه ؟؟؟؟؟؟ ی چندبار توجه به لیبل و دیتاها و گرفتن دیتای تست از گروه دقیقاْ برای همین موضوع بود (تا آخر با مثال سگ پیش میرم) توی یک نمونه دیتایی که من توی داده ترین متوجه‌اش شدم صدای سگ وجود داشت اما سگی نبود؛ به همین دلیل لیبل دستی که براش زده شده بود سگ داشت اما مدل‌های دیپ‌لرنینگ می‌گفتند سگی وجود نداره و هردو هم درست می‌گفتند. کاری که من انجام دادم جدا کردن صداها از ویدئوها بود و دسته بندی کردن بر اساس صداها درنهایت هم بر اساس ویدئو و هم براساس صدا مدل کارش رو انجام میده ؛ دقت خیلی خیلی بهتر شد و مشکلات حل برای ترین کردن شبکه‌ایی که استفاده کردم ۲تا دیتاست فوق‌العاده پیدا کردم : 1- https://research.google.com/audioset/ 2- https://urbansounddataset.weebly.com/ حل کردن چالش واقعاْ لذت بخش هست این راهکار می‌تونه برای حل مسائل دیگه هم استفاده بشه؛ موضوع و راهکار خوبی برای پایان‌نامه و مقاله‌ هم می‌تونه باشه
#تبلیغاتـدرـکانال ما: ❇️ شرایط، هزینه ها و نحوه خرج شدن پولی که میدید 😬 هزینه تبلیغات در کانال: ▪️به ازای هر ساعت پست آخر ۱۰ هزار تومان ▪️به ازای هر هزار بازدید ۱۵ هزار تومان ▪️پست آخر و پین ۱۲ ساعت (از ساعت ۱۱ شب تا ۱۱ صبح) ۵۰ هزار تومان 😬 شرایط تبلیغ در کانال: 🔆 پیش از تبلیغ حتما پست مورد نظرتان را در یک پیام به آی دی @MeysamAsgariC ارسال کنید تا محتوای آن بررسی شود. 🔆 محتوای شامل موارد نقض حقوق کپی رایت، تبلیغات فیک و موضوعات سیاسی-مذهبی را نشر نمیدهیم. 😎 شرایط ویژه: 🌱 میتوانید به عنوان حامی کانال ما خودتان را ثبت کنید. 🌱 پرداخت هزینه ماهیانه ۱۰۰ هزار تومان باعث میشود که یک ماه حامی کانال ما شوید و ۲۵٪ تخفیف ویژه برخوردار شوید. 🤓 شرایط ویژه تر: ⚠️ اگر مطب جالبی در کانال خودتون درج کردید که فکر میکنید مهمه و جالبه و مرتبط هم هست بدید ما فوروارد میکنیم بدون هیچ چشم داشتی. ⚠️ اگر کسب و کار کوچکی دارید و تازه شروع کردید و هزینه تبلیغات رو نمیتونین بدید مهم نیست ما مجانی تبلیغ میکنیم فقط در گروههامون نزنید و اسپم نکنید. 🤔 پولی که برای تبلیغ میدید چی میشه؟ کجا خرج میشه؟ ▪️هزینه ای که برای تبلیغات پرداخت میکنید تماما (به علاوه هزینه ای که ادمینها از جیب خودشون میزارند) به حساب بنیاد کودک جهت حمایت از کودکان نیازمندی که میخواهند به تحصیل ادامه بدند واریز میشود. لینک بنیاد کودک #تبلیغاتـدرـکانال ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
شرکت داده پردازی امن پارتاک، فعال در حوزه توسعه راهکارهای امنیت اطلاعات و تست نفوذ و خدمات نرم افزاری و شبکه، در ردیف های شغلی ذیل اقدام به جذب نیرو می نماید: 1. برنامه نویس web application و mobile application • تسلط به برنامه نویسی php , node.js • آشنایی با برنامه نویسی java و swift • آشنایی با کتابخانه ی React • تسلط کامل به مفاهیم مرتبط با مدیریت حافظه، Thread ، Socket • مسلط به Object Oriented 2. کارشناس تست نفوذ web , network , mobile applications • تسلط کامل بر مفاهیم #تست_نفوذ و راهکارهای نفوذ web , network , mobile applications ، بر اساس سرفصل های تعریف شده در SANS , EC-Council , OWASP و سایر استانداردهای رایج تست نفوذ • تسلط بر ابزارهای ارزیابی امنیتی و تست نفوذ شامل سیستم عامل ها، اپلیکیشن ها و تکنیک ها • تسلط بر مفاهیم پایه ای شبکه و امنیت اطلاعات 3. برنامه نویس حرفه ای • تسلط به زبان های python و cpp و csharp • تسلط کامل به مفاهیم مرتبط با مدیریت حافظه، Thread ، Socket • مسلط به Object Oriented و برنامه نویسی تحت سیستم عامل • آشنایی با Windows API و Kernel Debugging نیز امتیاز محسوب می شود. 4. کارشناس شبکه و امنیت • تسلط به مباحث شبکه و امنیت شبکه • دانش شبکه و امنیت CCNP R&S - CCNP Security و بالاتر • تسلط به تجهیزات امنیتی حداقل 3 برند تجاری و آمادگی برای یادگیری در صورت نیاز ✅ تسلط به زبان انگلیسی و متون تخصصی حوزه IT در همه موارد امتیاز محسوب میشود. ✅ دارای روحیه کار تیمی، توان حل مساله، دارای توان بالای یادگیری، پایبند به اصول اخلاقی ارسال رزومه: http://partaksdp.com #فرصت_همکاری ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
چهارمین مرحله جذب نیروی امریه سربازی وزارت ارتباطات و فناوری اطلاعات از روز شنبه 11 خردادماه سال جاری آغاز می شود  به گزارش مرکز روابط عمومی و اطلاع رسانی وزارت ارتباطات و فناوری اطلاعات، چهارمین مرحله جذب نیروی امریه سربازی در وزارت ارتباطات از روز شنبه 11 خرداد ماه آغاز می شود. افراد با تحصیلات کارشناسی ارشد و دکترا قابلیت شرکت در این مرحله از  جذب را دارا هستند و با توجه به نیازمندی های پرسنلی ستاد و دستگاه های تابعه وزارت، رشته های تحصیلی حقوق، اقتصاد، علوم اجتماعی، مخابرات، کامپیوتر، فناوری اطلاعات، امنیت فضای سایبری، مهندسی برق، بیوانفورماتیک در مقاطع فوق الذکر، در این مرحله از فراخوان نیروهای امریه جذب می شوند. وزارت ارتباطات از میان فارغ التحصیلان واجد شرایط در رشته های فوق نیروهای امریه سربازی را انتخاب می کند. متقاضیان می توانند همه مراحل ثبت نام، ارزیابی، پیگیری و پایش را از طریق سامانه مستقر در سایت وزارت ارتباطات و فناوری اطلاعات دنبال کنند. افراد متقاضی می توانند برای ثبت نام از ساعت 10 صبح 11 خرداد ماه تا 12 ظهر 18 خرداد اقدام کنند. متقاضیان برای کسب اطلاعات بیشتر به آدرس زیر مراجعه کنند: http://amrieh.ict.gov.ir/SitePages/Home.aspx
شبکه های عصبی، رفتار و عملکرد مغز انسان را تقلید میکنند. این شبکه ها شامل الگوریتم هایی هستند که می توانند یاد بگیرند که به طور مثال رفتار مغز را در شناسایی گفتار و تصاویر تقلید کنند. با این حال، باید دانست که راه اندازی یک شبکه عصبی مصنوعی به زمان و انرژی زیادی احتیاج دارد. محققان مرکز ملی تحقیقات علمی در پاریس، دانشگاه Bordeaux و کمپانی Evry، یک سیناپس مصنوعی به نام memristor را طراحی و ساخته اند و آن را مستقیما روی یک chip قرار داده اند. این نوع آوری راه را برای سیستم های هوشمند هموار خواهد کرد؛ سیستم هایی که نیاز به انرژی و زمان کمتری برای یادگیری داشته و میتوانند به صورت خودکار یاد بگیرند. این سیناپس مصنوعی چطور کار میکند؟ در مغز انسان، سیناپس ها به عنوان پایانه های ارتباطی بین نورون ها عمل میکنند. هر چه بیشتر از این سیناپس ها استفاده شوند (مورد تحریک بیشتری قرار بگیرند)، ارتباطات قوی تر شده و یادگیری سریعتر میشود. memristor نیز به همین شیوه کار میکند. این سیناپس مصنوعی از یک لایه ی نازک فِروالکتریک ساخته شده است که میتواند خود به خود باردار شود و بین دو الکترود قرار گرفته است. میزان مقاومت آنها میتواند با استفاده از پالس های ولتاژ تنظیم شود (مانند آنچه در نورون های طبیعی رخ میدهد). ارتباط سیناپسی، زمانی که مقاومت پایین باشد، قوی خواهد بود و بالعکس. در واقع، ظرفیت یادگیری memristor بر اساس همین مقاومتِ قابل تنظیم، تعیین میشود. شبکه های عصبی کنونی که با الگوریتم های یادگیری ساخته میشوند، در حال حاضر توانایی اجرای وظایفی را دارند که سیستم های قبلی نداشتند. برای مثال، سیستم های هوشمند کنونی توانایی ساخت موسیقی، بازی کردن، شکست بازیکنان انسانی و حتی می توانند مالیات های شما را پرداخت کنند. برخی از آنها قادرند تا رفتارهای مرتبط با افکار خودکشی در انسان ها را تشخیص دهند یا تشخیص دهند انجام چه کاری قانونی یا غیر قانونی است. تمامی پیشرفت های ذکر شده را مدیون قابلیت یادگیری سیستم های هوش مصنوعی هستیم. تنها محدودیت موجود زمان و میزان داده ای است که باید برای یک سیستم هوشمند صرف شود تا به بهره برداری مناسبی برسد. با وجود طراحی memristor فرآیند یادگیری به طور چشم گیری افزایش خواهد یافت. البته کار بر روی این سیناپس ادامه دارد و هدف بعدی، ارتقاء آن برای عملکرد سریعتر و بهتر خواهد بود. نتایج تحقیقات این تیم تحقیقاتی در ژورنال Nature Communication به چاپ رسیده است. #machinelearning #artificialintelligence #neural #network #memristor #brain @pythonicAI
16 منبع آموزشی الگوریتمهای هوش مصنوعی〰️〰️〰️ ♾ 1. Speech and Language Processing by Dan Jurafsky and James Martin 🔊 2. Deep Learning for Natural Language Processing by Richard Socher (Stanford University) 🔔 3. Natural Language Processing (NLP) by Microsoft 🔸 4. Andrew Ng’s course on Machine Learning 🔸 5. The video lectures and resources for Stanford’s Natural Language Processing with Deep Learning 🔰 Part 2 🔹6. Sequence Models for Time Series and Natural Language Processing 🔺 7. Deep Natural Language Processing course offered in Hilary Term 2017 at the University of Oxford. 🔺 8. Natural Language Processing Fundamentals in Python by Datacamp 🔺 9 Natural Language Processing by Higher School of Economics 🔸 10 How to Build a Chatbot Without Coding by IBM 🔸 11. CS 388: Natural Language Processing by University of Texas 🔸 12. Natural Language Processing with Python ⚡️ 13. CSEP 517: Natural Language Processing by University of Washington 🔰 14. Dan Jurafsky & Chris Manning: Natural Language Processing 📘 15. NATURAL LANGUAGE PROCESSING by Carnegie Mellon University 📘 16. CS224n: Natural Language Processing with Deep Learning by Stanford University #منابع #یادگیری_ماشین #فیلم #کلاس_آموزشی #الگوریتمها #پردازش_زبان_طبیعی #هوش_مصنوعی #یادگیری_عمیق join👇👇👇 ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
how to get bitcoin اکثر افراد از طریق ماین کردن بیت کوین به دست می آورند من اینبار یک روشی از طریق بازدید سایت و گرفتن بیت کوین می باشد که راحت تر است در مرحله اول در سایت زیر ثبت نام کنید که در واقع به عنوان بانک شما می باشد و هر مقدار از سایت ها برداشت کنید وارد این سایت میشود: https://coinpot.co/ سپس وارد سایت های زیر میشود و دقت کنید از همان جیمیلی ثبت نام کنید که در سایت بالا ثبت نام کردید و هر پنج دقیقه یک بار شما میتوانید برداشت داشته باشید سایت اول:(بیت کوین) yon.ir/mswcO سایت دوم:(بیت کوین) yon.ir/4skps سایت سوم:(بیت کوین) yon.ir/tx2Ke سایت چهارم:(bitcoin cash) yon.ir/5I2iJ سایت پنجم:(litecoin) yon.ir/vMoaM سایت ششم:(dogecoin) yon.ir/o3jG4 سایت هفتم:(dash) yon.ir/P6XVj ۶تا از این سایت ها هر پنج دقیقه یک بار میتوانید برداشت کنید و پیشنهاد میکنم که اینکار کنید زیرا هر بار که شما برداشت کنید سایت به شما سه تا coinpot tokens میدهد که ارزش خیلی خوبی دارد و در آخر برای تبدیل کردن هر ارزی به ارزی دیگر یک فلش در کنارش هست به اسم convert روی آن کلیک کنید و به هر ۵ ارز موجود تبدیل کنید و برای برداشت گزینه withdraw کلیک کنید و اگر هر کدام از سایت های بالا ارور داد کش مرورگر خود را پاک کنید در آخر اگر سوالی در این مورد داشتید میتوانید به ایدی من پیام بدهید: @pperfect ❇️ @AI_Python
سلام، می خواهیم همه المان های زیست بوم استارتاپی ایران شامل استارتاپ ها، صندوق های سرمایه گذاری خطر پذیر، فرشته و سرمایه گذاران شخصی، کار آفرینان، مشاوران، ارائه کنندگان فضای کار اشتراکی، شرکت های فن آور و دانش بنیان و اهالی رسانه های استارتاپ محور را کنار هم جمع کنیم تا هم آموزش و اخبارهای این حوزه را پوشش دهیم و در کنار یکدیگر اصول و مفاهیم استارتاپی و اقتصاد حول آنها را بیشتر یاد بگیریم و هم بستری برای ارتباط موثرتر و راحت تری این المان ها با یکدیگر ایجاد کنیم. ان شالله که این حرکت به پیدایش و رشد بیشتر استارتاپ های موفق در ایران منجر شود. با همین رویکرد کانال "زیستارتاپ" که مخفف "زیست بوم استارتاپی" می باشد، راه اندازی شد: 💎 @zistartup 💎 🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶 اطلاعات این کانال از طریق تعدادی هشتگ برچسب دار می شود تا اطلاعات کانال از بین نرود و بتوان در مواردی نیاز اطلاعات را بازیابی کرد و برای آینده مجموعه خوبی از اطلاعات همه بازیگران عرصه زیست بوم استارتاپی ایران را در اینجا جمع و آرشیو کرد. مثلا اگر فردی دنبال یک سرمایه گذار فرشته میگردد می تواند با جستجوی #angle_vc آن سرمایه گذار را پیدا کند و یا سرمایه گذاری دنبال استارتاپ ها یا ایده های حوزه IoT میگردد، در اینجا میتواند با جستجوی همزمان هشتگ های #iot و #start_up یا #startup_idea همه آن موارد را پیدا کند. 🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶 هشتگ ها فعلا عبارتند از: #startup #vc #angle_vc #personal_investor #accelerator #mentor #entrepreneur #media #event #job #rfp #book #podcast #ted_talk #news و در هر مورد زمینه فعالیت به صورت کامل (در صورتی که مخفف مشهوری دارد به صورت کوتاه و مخفف) و در صورت چند کلمه ای بودن با زیرخط از هم جدا می شوند مثلا: #electronics_telecommunication #it_ict #ai #iot #healthcare در پست های با هشتگ #start_up به معرفی استارتاپ هامی پردازیم. یک بخش هم به مرور استارتاپ های خارجی مخصوصا در سیلیکون ولی می پردازیم تا از دوستان شاید کسی مشتاق شد که یکی از آن ایده ها را در ایران دنبال کند و هشتگ آن هست: #strartup_idea ☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️ ضمنا دست هر یک از دوستانی که در تهیه یا ارسال محتوا نظیر معرفی استارتاپ ها، صندوق های خطر پذیر، اخبار، پادکست های آموزشی، موقعیت های شغلی و .... به ما کمک کنند را به گرمی می فشاریم. ☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️
#خارج‌ـازـبحث یه چندساعتی می‌شه خبر اندروید ملی رو می‌شنویم : متن خبر :‌ در حالی‌که شرکت هواوی در حال توسعه نسخه خاص سیستم عامل خود بر پایه اندروید است ایران هم اعلام کرده قصد توسعه «اندروید ملی» را دارد. من ی چندتا نکته رو بگم : ۱- چندین و چندسال هزینه شد برای سیستم‌عامل ملی آخرشم گفتن شکست خورد ۲- این پروژه کلاْ شکست خورده‌اس؛ شرکتی مثل هواوی یکی از بزرگترین عرضه ‌کننده‌های تلفن همراه هست که مارکت بسیار بزرگی هم داره و قراره برای سخت‌افزار خودش هم نرم‌افزار ارائه کنه ۳- توی ایران شرکت تولید کننده سخت‌افزار ؛ و یا حتی اسمبل کردن و تولید تلفن همراه مطرحی دیده نمی‌شه (شاید جی‌ال‌ایکس) که به لطف تحریم‌ها و فشارهای اقتصادی و قیمت بالای گوشی‌همراه برخی از مردم محروم ؛ محکوم به خریدش هستند ۴- خیلی از شرکت‌ها تغییر رام - روت شدن تلفن همراه و ... رو حذف گارانتی تلقی می‌کنند؛ چه برسه تغییر کامل سیستم‌عامل ۵- پشتیبانی و ارسال آپدیت و ... برای این همه مدل گوشی کار ساده‌ایی نیست و هزینه گزافی هم داره (بخش خصوصی و شرکتهای تولید کننده موبایل‌ها هم پشتیبانی طولانی مدتی ندارند) ۶- یکی از دوستان اشاره کرد؛ امنیت ملی - و سران مملکتی و جاسوسی؛ آیا عاقلانه‌اس تو شرایط بد اقتصادی موجود میلیاردها تومان پول صرف پروژه‌ایی بشه که فقط یک عده خاص استفاده ‌خواهند کرد به نظرم یه برنامه ارتباطی ابنکریپت شده راه‌حل کم خرجتر و عملی تری هست از ته قلبم امیدوارم یک دروغ و یک شایعه باشه این موضوع اگر نه : امیدوارم تصمیم‌گیران مملکت یک تجدید نظر کنن در نهایت باید بگم : این پروژه شکست خورده‌ هست و باید دید چه شرکت و چه افرادی قراره با این پروژه پول مردم رو به جیب بزنن
دومین رویداد ملی بهار کارآفرینان استارتاپی هدفش توسعه فضای اکوسیستم کار آفرینی استارتاپی است. رامین اکبری ،ریاست دومین رویداد ملی بهار کارآفرینان استارتاپی گفت: رویدادهای استارتاپی هر کدام به شکل متفاوتی طراحی شده‌اند و هریک به نحوی در پیشرفت اکوسیستم شهری و شبکه سازی بین فعالان این حوزه موثر هستند، بهار کارآفرینان استارتاپی نیز این هدف را دنبال می کند و اولین هدفمان توسعه فضای اکوسیستم کار آفرینی استارتاپی می باشد. بنیانگذار بهار کارآفرینان استارتاپی رامین اکبری گفت: دومین رویداد ، که یک رویداد کارآفرینی بود، با حضور بنیان گذاران استارت آپ های موفق کشور و استانی در تبریز به همراه پنل استارت آپ های موفق که با استقبال بی شماری ازعلاقه مندان به مباحث کارآفرینی و استارتاپی برگزار شد، در دومین دوره از این رویداد با تلاش تیم اجرایی ۵۰ نفره که مدت ۷ ماه زمان گذاشته بودند با استقبال ۸۰۰ نفر از فعالان (کارآفرین – استارتاپ – دانشجویان – اتاق بازرگانی و... ) در تالار وحدت دانشگاه تبریز برگزار شد. در دومین رویداد ملی بهار کارآفرینان استارتاپی 5 تیر روز چهارشنبه در تالار وحدت دانشگاه تبریز، با سخنرانی بنیان گذاران: علی بابا ( مجید حسینی نژاد ) دیجی نلا ( آرش ماهوتی ) بیمیتو (حامد ولی پورd ) مجتبی محمودزاده ( رایچت ) شهرام اشرف نیا (قونقا ) علی حاج محمدی ( ژاکت و وردپرس )صندلی داغ با رضا اربابیان بنیانگذار شپیور و پنل استارتاپهای موفق تبریز( چهار استارتاپ تبریز به تایید شورای سیاست گذاری رویداد با اجرای مهندس عباس باغبان برگزار شد. همچنین برای اولین بار نمایشگاه کار در دومین رویداد ملی بهارکارآفرینان استارتاپی برگزار شد. محل مناسبی برای ملاقات بی واسطه و مستقیم بین کارجویان و کارفرمایان شد. که تعدادی از کارجویان جذب شرکتها شدن. ایشان اشاره کردند که حضور بنیان گذاران و کارآفرینان موفق سبب شد که شاهد محتوای غنی با سطح کیفی بالا باشیم . که شبکه سازی یک مهارت عمده و مهم در زندگی و کسب و کار بحساب می آید و از این مهارت می توان در امور تجاری، سازمانی و شخصی استفاده نمود. تشکر ویژه از اسپانسرهای محترم دومین رویداد ملی بهار کارآفرینان استارتاپی ، جناب آقای “دکتر امین اسدلله پور” بنیانگذار مرکز علوم اعصاب و روانشناسی سایبر www.cyberneuro.com و مدیرعامل محترم شرکت دیدچی “جناب آقای مهندس سهند سالمی” www.deedchi.com و همه مشارکت کنندگان بزرگوار که در برگزاری این رویداد مارا یاری نمودند. سپاسگذارم. و تمامی عزیزان مشارکت کننده در رویداد می توانند گزارش ها ، تصاویر و اخبار رویداد رو از طریق شبکه ها اجتماعی بهار کارآفرینان استارتاپی و یا سایت www.bkstartupi.com رویداد با خبر شوند.
#اندر_حکایت #کاریابی #کارآموزی #استخدام #سوپرمن #hero بر انجام این کار(آگهی) نیاز به یک سوپرمن (مردآهنی -مردعنکبوتی - در بهترین حالت مستر روبات)داریم ✴️ @AI_Python_EN ❇️ @AI_Python 🗣 @AI_Python_arXiv در نگاه اول شاید این متن فکاهی و طنز جلوه نماید ولی مدتی ایست که بنده به حکم اجبار و گاها برای بررسی بازار کار رشته ی نرم افزار و تخصصا برنامه نویسی پایتون به سایت های کاریابی و اگهی های استخدام معروف (جاویژن-جاب اینجا-ایران تلنت-آی استخدام-وغیره)مراجعه کردم و اگر شما خواننده گرامی هم از متخصصان این حوزه باشید میتوانید به منظور بنده از جمله ی اول در این شبه مقاله پی ببرید که توقعات کارفرماها به سمت غیر واقعی پیش میرود خوشبختانه اخیرا شاهد تخصص گرایی در زمینه استخدام برنامه نویس هستیم اما متاسفانه شاهد مسائلی هستیم که کم هم نیست ولی بنده در اینجا قصد دارم به سه نکته مهم از دیدگاه اینجانب بسنده کنم نکته ی اول که بسیار حائز اهمیت است عدم تمایل شرکت ها به جذب کارآموز هست و ترجیح شرکت های به سمت جذب برنامه نویس های سطح بالا (برنامه نویس ارشد با سابقه ی بالای ۵ سال) و برخی از شرکت هایی هم که به جذب کارآموزی اقدام کردند یا از سر ناآگاهی و یا آگاهانه معیارهای سنجش بسیار بالایی را برای کارآموزی های خود اعمال می نمایند (اگر چه این موضوع در استخدام هم رایج شده که در ادامه به این موضوع پرداخته خواهد شد) من شاهد این هستم که اکثرا در آگهی های خود به این نکته اشاره میکنند که کارآموز باید تسلط کامل تاکید میکنم کامل به زبان x و یا فریم ورک y ویا تکنولوژی و کتابخانه های z داشته باشند(برای مثال جنگو ۲ یا مباحث ماشین لرنینگ و دیپ لرنینگ) و در اینجا این سوال پیش می آید اگر بنده در مقام کارآموزی تسلط کامل به آنها دارم پس چرا باید برای آگهی کارآموزی این شرکت اپلای کنم و مسلما ترجیح میدهم برای اگهی های استخدامی دیگر در این زمینه اقدام کنم نکته ی دومی که شاهد آن هستم برخی از شرکت ها ابزاری را نام میبرند که به ندرت از آن استفاده میشود و واژه تسط کامل هم اینجا قید میشود (برای مثال جنگو چنل برای برنامه نویسی سوکت در جنگو هست ولی حداقل بنده بعد از ۲ سال کار در زمینه جنگو فقط یک بار به استفاده از این کتابخونه اقدام کردم ) در صورتی که واژه ها و معیار ها عملا فرآیند کارآموزی به معنی واقعی خود را زیر سوال میبرند و کاآموز قرار است در کنار شما به فرآیند حرفه ایی و ابزارهای متفاوت و متدولوژی های معروف تسلط پیدا کند و از این رو این #سوال در ذهن شکل میگیرد این شرکتها ایا به دنبال استسمار(با حقوق ناچیز و گاها بدون هیچ درآمدی) برنامه نویسان مسلط هستند و ما به اذای آن فقط سابقه ی کار به شما هدیه میکنند ???? در اینجا به دوستانی که علاقه ایی ندارند در معرض اینگونه سوء استفاده ها قرار بگیرند پیشنهاد میکنم به قرار دادن کد در گیت هاب و ساخت یک اکانت قوی در آن و لیکندین رو بیاورند و تن به این مسئله ندهند اگر واقعا خود را لایق شرایط بهتر میدانند و اما #سخنی با #مدیران فنی و #برنامه نویسان #ارشد عزیزی که قصد جذب #کارآموز دارند:‌دوستان گرامی شما نه تنها با جذب کارآموز به رشد و اعتلای شرکت خود اقدام خواهید کرد بلکه به رشد جامعه برنامه نویسی #کشور و #تامین نیروی #متخصص در این زمینه هم کمک خواهید کرد و این مسئله بسیار مهم تر از مسائل مادی زود گذر است و نوعی خدمت به وطن تلقی خواهد شد ولذا از شما خواهشمندم در فرآیند جذب و آموزش کارآموز صبر و عطوفت بیشتر را در پیش بگیرید و فقط مسائل و منافع مادی و مالی شرکت خود را (که مثلا برای جذب ۲-۳ کارآموز واقعا ناچیز است)کمتر در دستور کارخود قرار دهید ✴️ @AI_Python_EN ❇️ @AI_Python 🗣 @AI_Python_arXiv #نکته ی #دوم که باعث شد برای این شبه مقاله #تیتر فوق را در نظر بگیر سقف غیر واقع بینانه ی مهارت های برنامه نویسان پایتون در کشور است برای مثال وقتی به یک آگهی با حقوق ۳-۴ میلیون مراجعه میکنید حداقل ۶-۷ مهارت را باید در نظر داشته باشید (برای مثال جنگو را باید بلد باشند مانگو را باید بلد باشند گیت بعلاوه rest full api را بلد باشند یک پایگاه داده رابطه ای را بلد باشند به مسائل x و y و z آشنا باشند بعلاوه تجربه ی dev'ops هم داشته باشند با سابقه ی 4 سال کار در سمت مشابه ، امنیت و نفود هم اشنا باشه هیچ لینوکس هم پیشرفته بلد باشه آخه برادر عزیز اینایی که شما میگی حداقل طرف ۵-۶ سال کار کرده باشه 😁 بعدشم حالا بماند کلا جنگو۲ شاید ۵ سال نباشه که عرضه شده😁 الان بازار کار جوامع کامپیوتری ما الخصوص پایتون جوانان هستند شما سربازی و دانشگاه و اینارو هم بزاری بقل سابقه ی کار، مشترک مورد نظر شما حداقل باید ۳۵ سالش باشه تو اگهی ات هم میزنی حداکثر سن۳۰ سوپرمن میخوای مگه عزیزمن؟؟ 😕😐 ببخشید دیگ رسمی نمیشد اینارو توضیح داد)
#قسمت #دوم همچنین استفاده از کلمات غیرفنی و تخصصی ایست که واقعا زیبنده ی این آگهی ها نیست ✴ @AI_Python_EN ❇ @AI_Python 🗣 @AI_Python_arXiv اما نکته ی سوم : حقیقتا بعد از بررسی آگهی ها به آزمون های استخدامی میرسیم دوستان عزیز واقعا اینکه شما یک سری متون و سوالات سطح پایین(ریاضی صرف) و گاها کاملا اکادمیت (مثل مسائل فیبوناچی وغیره ) را به صورت encode x64 برای کارآموز های خود ارسال کنید نشان از سطح حرفه ایی بودن سازمان و شرکت شما نمیدهد بلکه برعکس یاعث سلب انگیزه از متقاضیان کار هست مثال عرضه شده کاملا عینی بوده برای نویسنده اتفاق افتاده است و در مصاحبه فنی جایی دیگر متاسفانه فرق ریجیکس و دیپ لرنینگ را نمیدانستند و یا از برنامه نویس جنگو توقع تجربه dev'ops وتسلط بر امنیت داشتند یک برنامه نویس با سطح آشنایی متوسط و پیشرفته از شما توقع دارد در مصاحبه ی فنی شما از مسائل فنی که در دنیای واقعی با آنها سروکار دارند سوال بپرسید و نمونه کدهای آنها را بررسی کنید نه در مورد مسائلی که هرگز اتفاق نمی افتد لذا مجدد خواهشم قبل از آزمون فنی رزمه افراد دعوت شده را برای هر فرد جدا بررسی و بر اساس آن مصاحبه انجام دهید (می توانید از برنامه ها و ide های انلاین coding که برای ازمون های انلاین هست استفاده نماید در صورت مصاحبه از راه دور ) البته ناگفته نماند که عزیزان ما در زمینه برنامه نویسی در حال رشد بسیارخوبی هستند اما امید آن است عزیزان فعال درتمامی رشته های علوم کامپیوتر نسبت به تسریع و کمک به سرعت گرفتن این چرخه اقدام نمایند با آرزوی بهترین ها برای تمام نوآموزان عرصه ی کامپیوتر و متخصصان عزیز و مدیران محترم در شرکت های دولتی و خصوصی author: @majid199372 / @majid_aghamohammad ✴ @AI_Python_EN ❇ @AI_Python 🗣 @AI_Python_arXiv
#منبع #پایتون #یادگیری_ماشین سلام. تو این مقطع که مبانی پایتون با دیتاساینس را میدونید اکیدا توصیه میکنم حتما کنفرانس های سال های مختلف SciPy را ببینید. مختصر و عالیه. همچنین pyconها هم میتونه مفید باشه اولین فیلم برای سال 2017 و یه کم قدیمیه، اما ارائه دهندش Muellerه، توسعه دهنده اصلی scikit learn برا همین خیلی توصیه میکنم ببینیدش. Machine Learning with scikit learn | SciPy 2017 Tutorial | Andreas Mueller & Alexandre Gram Part I: https://www.youtube.com/watch?v=2kT6QOVSgSg Part II: https://www.youtube.com/watch?v=WLYzSas511I Machine Learning with Scikit-Learn, Part 1 | SciPy 2018 Tutorial | Lemaitre and Grisel Part I: https://www.youtube.com/watch?v=4PXAztQtoTg&feature=youtu.be Part II: https://www.youtube.com/watch?v=gK43gtGh49o SciPy 2019: Scientific Computing with Python Conference https://www.youtube.com/playlist?list=PLYx7XA2nY5GcDQblpQ_M1V3PQPoLWiDAC Chalmer Lowe - Scikit-learn, wrapping your head around machine learning - PyCon 2019 https://www.youtube.com/watch?v=kTdt0P0e3Qc Deepak K Gupta - Hello World of Machine Learning Using Scikit Learn - PyCon 2019 https://www.youtube.com/watch?v=bCDcI8SdjD8
پروفسور مایکل جردن :انقلاب واقعی هوش مصنوعی هنوز رخ نداده است! یادگیری ماشین معادل هوش مصنوعی نیست ! --------------------------------------------- مایکل جردن دانشمند معروف جهان هوش مصنوعی اعتقاد دارد آنچه امروزه به نام انقلاب نوین هوش مصنوعی معرفی میشود در واقع نه هوش مصنوعی واقعی بلکه تنها یادگیری ماشین است و بین هوش مصنوعی ویادگیری تفاوت وجود دارد! -------------------------------------------- "اختصاصی از کانال پردازش هوشمند آراد " به عقیده پروفسور جردن آنچه امروزه در اخبار درباره پیشرفت های هوش مصنوعی می بینیم غالبا برچسبی یادگیری ماشین را با خود دارند .یادگیری ماشین الگوریتم هایی برای پردازش داده ها با الهام از روش های آماری و علوم کامپیوتری به منظور پیش بینی وتصمیم گیری بوده است .در حالی هدف هوش مصنوعی تولید موجودیتی بوده است که حداقل از جنبه ذهنی مانند انسان باشد .الگوریتم های یادگیری ماشین روی مدل سازی فرایند های تصمیم گیری در سطوح پایین تمرکز دارند در حالی که هدف هوش مصنوعی مدل سازی فرایند های تصمیم گیری در سطوح بالاست.یعنی باز تولید فرایند های شناختی و فکری انسان در حالی که یادگیری ماشین امروزه بیشتر مبتنی بر شناسایی آماری الگو ها و انجام تخمین ها متمرکز است. -------------------------------------- مشاهده اصل مقاله : https://hdsr.mitpress.mit.edu/pub/wot7mkc1 -------------------------------------- #کوانتم #یادگیری_ماشین #یادگیری_ماشین_کوانتومی #پردازش_هوشمند_آراد #یادگیری_ماشین #هوش_مصنوعی #محاسبات_کوانتومی #یادگیری_عمیق #Michael I. Jordan ❇️ @AI_Python ✴️ @AI_Python_EN
زمستان هوش مصنوعی بخش چهارم - زمستان دوم در دهه 80 و پس از فروکش کردن زمستان اول، عصر جدیدی از AI پا به عرصه ظهور گذاشت. این‌بار پیدایش «سیستمهای خِبره» یا Expert Systems بود که هوش مصنوعی را بر سر زبانها می‌انداخت. شکل‌گیری این سیستمها، یک گام در مسیر درست بود. مسیری که AI را دوباره به حل مسائل و چالشهای واقعی نزدیک می کرد. نکته این بود که این بار برخلاف دوره قبل که جامعه هوش مصنوعی در تلاش بود تا با تقلید از مدل ذهن آدمها در فرایند حل مساله، به یک AI همه‌منظوره و مافوق بشر دست پیدا کنند، سیستم‌های خبره بر روی حل مسائل خاص منظوره تمرکز داشتند. این سیستمها در «برنامه ریزی مالی»، «تشخیص بیماریها»، «اکتشافات زمین شناسی» و «طراحی مدارهای میکروالکترونیک» پیاده سازی شدند و موفقیت‌های چشم‌گیری نیز به دست آوردند. یکی از نمونه های معروف این سیستمها Mycin نام داشت. سیستمی که برای «تشخیص باکتریهای عامل عفونت» طراحی شده بود و خروجیِ آن، تجویز آنتی‌بیوتیک با دُز مناسب با توجه به ویژگیهای بیمار (مانند وزن و...) بود. bit.ly/31R2gi3 (قبلا در مطلبی با عنوان «هوش مصنوعی به کجا می رود؟» هم به این سیستمها اشاره کرده بودیم) t.me/zankoo_ai/83 خلاصه با سیستم‌های خبره، نه تنها دوباره سازمانهای دولتی بلکه این بار شرکت‌های خصوصی هم متقاعد شدند که در پروژه‌های تحقیقاتی هوش مصنوعی سرمایه گذاری کنند. اما طولی نکشید که همان عارضه‌ی قبلی بروز کرد: وعده‌های بزرگ و غیرواقع بینانه‌ی پژوهشگران به مثابه حباب‌هایی دوباره رشد کردند. از سوی دیگر هم، ترس از رشد سریع شرکت‌های فناوری و تسخیر بازار، جلوی توسعه‌ی هوش را می‌گرفت. در این میان، رسانه‌ها هم در این حباب می‌دمیدند. تعدادی کنفرانس بزرگ مثل AAAI در این دوران شکل گرفت. آنقدر این کنفرانسها مخاطب و هوادار پیدا کرده بود که بلیت‌هایشان خیلی سریع به فروش می‌رفت. مجله بلومبرگ تیتر زده بود که «هوش مصنوعی همین‌جاست». تبلیغات شرکتهای هوش مصنوعی هم جالب بود، مثلا «ما یک ذهن برتر ساخته ایم»یا عبارات اغراق آمیزی که همگی از کمبود یک تصویر درست از توانایی‌ها و محدودیتهای محصولات AI حکایت داشت. در سال 1984، Marvin Minsky از پیشگامان AI و از بازماندگان زمستان اول، راجع به وقوع یک بحران دیگر هشدار داد. در جریان کنفرانس AAAI، میز گردی تشکیل شد با عنوان: «عصر تاریک AI. آیا میتوانیم از آن پیشگیری کنیم یا نجات پیدا کنیم؟» در جریان میزگرد، پروفسور Drew McDermott به این اشاره کرد که "انتظارات از AI بالا رفته و ممکن است دوباره به یک فاجعه دیگر منجر شود." "بیایید بدترین حالت ممکن را در نظر بگیریم، فرض کنیم در 5 سال آینده «جنبش ملی محاسبات استراتژیک» (سرمایه گذار تحقیقات در حوزه سخت افزار پیشرفته و هوش مصنوعی در آمریکا) بخاطر شکست پروژه‌ی خودروهای هوشمند، تعطیل شود. پروژه‌ی کامپیوترهای نسل 5 به جایی نرسد و دولت ژاپن دست از حمایت بردارد. استارت آپ ها یکی‌یکی شکست بخورند. شرکت Texas Instruments و schlumberger و دیگر شرکتها از سرمایه گذاری در AI دست بردارند. و ناگهان متوجه شویم که بابت پروژه‌های AI نمی‌توان بودجه‌ای گرفت! در این بلبشو همه شروع خواهند کرد به دستکاری عنوان پروژه‌های تحقیقاتی‌شان تا خودشان را به حوزه‌های دیگر بچسبانند و از این گرداب نجات دهند. بله! این وضعیت AI Winter نام دارد. چیزی شبیه به «زمستان هسته‌ای» (که در آن بودجه‌ی سلاح‌های هسته‌ای قطع شد.) البته این بدترین حالت ممکن است و به نظرم به هیچ وجه چنین شرایطی محتمل نیست!" bit.ly/313MbVe در همین سال John McCarthy از وجود نواقصی در سیستمهای خبره انتقاد کرد و معتقد بود این سیستمها منجر به تصمیم‌گیری های اشتباه می شوند و از محدودیت‌هایشان بی‌اطلاع‌اند. مثلا در سیستم Mycin، در شرایطی که باکتری ویبریوکلرا در روده‌ی بیمار باشد، سیستم برایش دو هفته تتراسیکلین تجویز میکند. این درمان، باعث از بین رفتن تمام باکتری‌های بیمار می‌شود اما قبل از آن خود بیمار را هم راهی قبرستان میکند! علاوه بر این بسیاری از مسائل آنقدر پیچیده بودند که مهندسها نمی‌توانستند تمام قوانین را خودشان دستی طراحی کنند و بنویسند. رکود در بازار سیستم‌های خبره‌ی کامپیوتری، اولین نشانه‌های زمستان دوم بود. با کاهش موفقیت پروژه‌ها و عدم تحقق وعده‌ها، Schwarz مدیر DARPA در اواخر دهه 80، تصمیم به کاهش بودجه‌ی پروژه‌ها گرفت. بسیاری از استارت آپ ها تعطیل شدند. کنفرانس AAAI با ریزش شدید بازدیدکننده‌ها مواجه شد، تا جاییکه در 1995 انتشار مقالات AI به پایین ترین حد خود رسید. نهایتا هم اصطلاح «سیستمهای خبره» شد هم‌تراز «وعده‌های عمل نشده و سرمایه های هدر رفته» (مانند اتفاقی که بر سر واژه‌ی هوش مصنوعی در زمستان اول افتاد) جواد امیریان زانکو @zankoo_ai
🔹نمیدونم چقدر با مفهموم Bayesian Optimization for Hyperparameters آشنا هستید اما اگر حتی یکبار هم تلاش کرده باشید یک network روی یک دیتاست جدید train کنید حتما با این موضوع مواجه شدید که مقدار زیادی از وقتتون صرف پیدا کردن یک ترکیب خوبی از فراپارامترهای مربوط به شبکه و اپتیمایزر و دیگر بخش ها میشه. علاوه بر روش های مرسوم مثل Grid Search و Random Search که دستی و تصادفی هستند که عموما زمانبر هستند چند وقتی هست که گرایش در کامیونیتی بسمت روشهای نسبتا خودکار و آماری رفته که Bayesian Optimization یکی از این روش ها هست. با معرفی سه کتابخانه مبتنی بر PyTorch این کار برای عموم محقق ها و پژوهشگرها بسیار ساده و با کمترین زمان ممکن قابل استفاده شده. 🔹 من در یک پیاده سازی ساده در این صفحه در گیتاب نشون میدم که چطوری میتونید این کار بسادگی انجام بدید. این روش کاملا قابل تعمیم به task های دیگه هست: https://github.com/mbiparva/ax-bo-image-classification 🔹جهت مطالعه بیشتر میتونید به کتابخانه های زیر که به هم وابسته بوده و هر سه مبتنی بر PyTorch هستند مراجعه کنید: Adaptive Experimentation Platform (Ax): https://ax.dev/ Bayesian Optimization in PyTorch (BOTorch): https://botorch.org/ Gaussian processes for modern machine learning systems (GPyTorch): https://gpytorch.ai/ باتشکر از: MahD ❇️ @AI_Python
برترین مهارت‌های فعلی و آتی متخصصین علم‌داده! http://tiny.cc/9kt6cz به‌تازگی توسط وب‌سایت kdnuggets یک نظرسنجی از متخصصین علوم داده مبنی بر مهارت‌های فعلی (Have Skill) و مهارت‌های آتی (Want Skill) موردنیاز پرسیده شده است که با توجه به جامعیت نظرسنجی فوق می‌تواند راهنمایی مناسبی جهت تحلیل مهارت‌های موردنیاز بازار علم‌داده در آینده باشد. ✅ برترین مهارت‌های فعلی متخصصین علم‌داده: 1️⃣ پایتون (Python) 2️⃣ مصورسازی داده‌ها (Data Visualization) 3️⃣ تفکر انتقادی (Critical Thinking) 4️⃣ اکسل (Excel) 5️⃣ مهارت‌های ارتباطی (Communications Skills) 6️⃣ یادگیری ماشین (Machine Learning) 7️⃣ آمار (Statistics) 8️⃣ مهارت‌های پایگاه داده (SQL/Database Coding) 9️⃣ فهم کسب‌وکار (Business Understanding) 🔟 ریاضی (Math) 🔵 برترین مهارت‌های آتی (توسعه دانش) متخصصین علم‌داده: 1️⃣ یادگیری عمیق (Deep Learning) 2️⃣ کتابخانه یادگیری عمیق تنسورفلو (TensorFlow) 3️⃣ یادگیری ماشین (Machine Learning ) 4️⃣ پایتون (Python) 5️⃣ آپاچی اسپارک (Apache Spark) 6️⃣ پردازش زبان طبیعی (NLP - Text Processing) 7️⃣ کتابخانه یادگیری عمیق پایتورچ (Pytorch) 8️⃣ آمار (Statistics) 9️⃣ داده‌های غیرساخت‌یافته (Unstructured Data) 🔟 سایر ابزارهای کلان داده (Other Big Data Tools) پی‌نوشت: ◾️ افزایش میزان توجهات به کتابخانه یادگیری عمیق Pytorch، زبان Scala و ابزارهای Big Data با توجه به درصد رشد آن قابل‌توجه است. ◾️در میان زبان‌های برنامه‌نویسی، کسب رتبه نخست توسط زبان پایتون و کاهش جایگاه زبان‌های برنامه‌نویسی R و Matlab، این زبان برنامه‌نویسی را تبدیل به برترین زبان در حوزه علم‌داده کرده است. ◾️قرار گرفتن دو مهارت نرم (Soft Skill) تفکر انتقادی و مهارت‌های ارتباطی جز 5 مهارت برتر فعلی متخصصین علم‌داده نشان از میزان توجهات به این قبیل مهارت‌ها در این بازار کاری دارد. ارادتمند محمدرضا محتاط @DataAnalysis
معروف ترین کتابخانه های پایتون برای هوش مصنوعی کتابخانه ها جان تازه‌ ای به زبان برنامه نویسی پایتون داده‌اند و یکی از دلایل اصلی محبوبیت این زبان هستند. کتابخانه‌ها کدهای از قبل نوشته شده هستند که توسط سایر توسعه دهندگان ایجاد شده اند. استفاده از آن ها در زمان شخص برنامه نویس صرفه جویی کرده و از دوباره کاری جلوگیری می‌کنند. دانش هوش مصنوعی نیاز به تجزیه و تحلیل داده دارد. در ادامه بهترین کتابخانه های پایتون که در تحلیل و بررسی داده به شما کمک خواهند کرد را بررسی می کنیم. 1 - Scikit-learn یکی از بهترین کتابخانه های یادگیری ماشین در پایتون است. این کتابخانه الگوریتم های اصلی و پایه این حوزه را به خوبی پردازش می‌کند. مواردی مثل رگرسیون خطی و لاجستیک، خوشه بندی، طبقه بندی و غیره توسط Scikit-learn به خوبی شناسایی می‌شوند. 2 - Pandas یک کتابخانه متن باز است که تحت پروانه BSD منتشر می‌شود. این کتابخانه در کنار کارایی آسان خود، بازدهی بالایی نیز دارد. از Pandas برای تحلیل داده استفاده می‌شود. Pandas در واقع سعی داشت یک شکاف را در پایتون برطرف کند. این شکاف مشکلی بود که پایتون در مدل سازی و آنالیز داده ها داشت. پانداس در کنار سایر کتابخانه های یادگیری عمیق و یادگیری ماشین قدرت بیشتری می‌گیرد. 3 - Keras از Keras برای یادگیری عمیق (Deep Learning) استفاده می‌شود. این کتابخانه محاسبات و ساخت نمونه را با سرعت بسیار بالا انجام می‌دهد. به خاطر اینکه به جزء پردازشگر دستگاه (CPU) از گرافیک (GPU) هم برای تقسیم بار محاسباتی استفاده می‌کند. Keras از پایتون 2.7 تا 3.6 را پشتیبانی می‌کند و یکی از بهترین کتابخانه های یادگیری عمیق در پایتون است. 4 - TensorFlow شرکت گوگل در سال 2010 یک تیم تحقیقاتی در حوزه هوش مصنوعی و یادگیری عمیق تشکیل داد. کتابخانه TensorFlow یکی از دستاوردهای این گروه است که در سال 2015 منتشر شد. گوگل هم در تحقیقات و هم در محصولات خود از این کتابخانه استفاده می‌کند. TensorFlow خودش را با انواع سیستم عامل ها (لینوکس، ویندوز، مکینتاش و غیره) وقف داده است. 5 - Matplotlib یک کتابخانه بسیار مفید برای ایجاد نمودارها است. به کمک آن می‌توانید انواع اشکال دوبعدی، هیستوگرام، نمودار و غیره طراحی کنید. بعد از اینکه اطلاعات متنوع خود را تحلیل کردید، برای خوانایی و فهم بیشتر، می‌توانید از نمودارها استفاده کنید. Matplotlib به ما کمک می‌کند یک خروجی کاربردی و ملموس از دیتای خود داشته باشیم. 6 - NLTK یک ابزار عالی برای ساخت برنامه‌های پایتونی مبتنی بر زبان انسان است. مثلا اگر برنامه ای ساخته‌اید که نیاز به تحلیل صحبت های انسان  دارد، می‌توانید از کتابخانه NLTK استفاده کنید. متاسفانه این کتابخانه فقط برای زبان انگلیسی کار می‌کند و امکان اضافه کردن آن به پروژه های  فارسی زبان وجود ندارد. NLTK مخفف Natural Language Toolkit بوده و بهترین گزینه در پردازش زبان است. 7 - Scikit-image پردازش تصویر مبحثی است که رابطه نزدیکی با بینایی ماشین دارد. پردازش تصویر در زمینه های متنوعی مثل موارد نظامی، امنیتی، صنعتی کاربرد دارد. بعضی از کاربردهای بینایی ماشین در زندگی روزمره عبارتند از تشخیص بارکد محصول، تشخیص پلاک یا سرعت خودرو و غیره. Scikit-image الگوریتم‌های مختلفی دارد که شامل تغییرات هندسی، آنالیز رنگ‌ها، تشخیص ویژگی‌های تصویر و غیره می‌شود. 8 - PyBrain یکی از بهترین کتابخانه های یادگیری ماشین بوده که با زبان پایتون نوشته شده است. این کتابخانه شامل الگوریتم‌هایی مربوط به شبکه‌های عصبی و یادگیری تقویتی است. Pybrain یک کتابخانه رایگان، آزاد و متن باز به حساب می‌آید که هر کسی می‌تواند از آن استفاده کند. ترکیب Pybrain با سایر کتابخانه‌های هوش مصنوعی به نتایج بسیار مفیدی منجر می‌شود. 9 - Caffe یک فریم ورک یادگیری عمیق (Deep Learning) است که با تمرکز بر روی سریع بودن و ماژولار بودن طراحی شده است. این کتابخانه پروژه آقای Yangqing Jia در دانشگاه Berkeley بوده و در حال حاضر تحت لایسنس BSD در اختیار عموم قرار گرفته است. برای اینکه قدرت Caffe را درک کنید باید بگوییم که این کتابخانه می‌تواند با جا‌به‌جا شدن بین CPU و کارت گرافیک، روزانه بیشتر از 60 میلیون تصویر را پردازش کند. 10 - StatsModels این کتابخانه در علوم داده، تجزیه و تحلیل اطلاعات و گزارش‌گیری ها کاربرد دارد و به خوبی در کنار سایر کتابخانه هایی که معرفی کردیم قرار می‌گیرد و با آن‌ها تعامل دارد. مثلا می تواند به راحتی برای کنترل داده‌ها با کتابخانه Pandas ادغام شود. همچنین این کتابخانه برای کار با سایر کتابخانه های گرافیکی از Matplotlib استفاده می‌کند. #هوش_مصنوعی #پایتون 🆔 @Ai_Tv
سلام دوستان، ما (تیمی از دو دانشجو و دو استاد از دانشگاه Università della Svizzera Italiana سوئیس) برای انجام پروژه‌ای برای یک مرکز مطالعاتی در سوئیس نیاز به جمع آوری اطلاعات رفتار کاربر در هنگام جستجو در یک کتابخانه دیجیتال را داریم. به همین منظور نیاز به همکاری شما در تهیه این اطلاعات و تحلیل رفتار کاربران را داریم. برای اینکار کافی است به وبسایتی که آدرس آن در ادامه وجود دارد مراجعه کنید و مراحل زیر را انجام دهید (همچنین این مراحل در فرم اولیه با تصاویر مشخص شده است). - وب سایت: https://rerodoc.herokuapp.com - لطفا از مرورگر Google Chroom استفاده نمایید. - حداکثر زمان جمع آوری اطلاعات تا تاریخ 15 مهر خواهد بود. - متن انگلیسی درخواست پس از متن فارسی قرار دارد. - تعداد سوالات در هر فرم بسیار کم است و تمام این مراحل حداکثر 15 دقیقه از شما زمان خواهد گرفت. مراحل: 0. در اولین مراجع به وب سایت فرمی (Info Form) نمایش داده می‌شود که از شما اطلاعاتی در مورد فرد جستجو کننده (شما) مثل سن و جنسیت دریافت خواهد کرد. 1. پس از آن فرم شروع سناریو اول باید تکمیل شود (Scenario1_Pre). 2. پس از این دو مرحله، شما باید با استفاده از قسمت جستجو در وبسایت جستجو کنید. 3. برای تکیمل سناریو اول باید فرم پایان سناریو اول را تکمیل کنید (Scenario1_Post). 4. مراحل 1 تا 3 را برای سناریو دوم تکرار کنید. با نهایت تشکر، سعید Dear colleagues, We are conducting a study into how people search for information in a digital library. Your contribution will greatly help us better understand searches’ behavior and their needs. We do need your help by participating in this pilot study by putting aside enough time to run a couple of searches in two different scenarios as explained in the experimental website and photo attached. You need to use Google Chrome and go to https://rerodoc.herokuapp.com/ to start helping us. Try and do your searches by at the latest the 7th of October. Your participation is extremely valuable for us! Thank you in advance
1) TensorFlow World 2019 Keynote https://www.youtube.com/watch?v=MunFeX-0MD8 2) Introduction to TensorFlow 2.0: Easier for beginners, and more powerful for experts (TF World '19) https://www.youtube.com/watch?v=5ECD8J3dvDQ&t=966s 3) Swift for TensorFlow (TF World '19) https://www.youtube.com/watch?v=9FWsSGD6V8Q 4) Building models with tf.text (TF World '19) https://www.youtube.com/watch?v=iu_OSAg5slY&t=1s 5) Performant, scalable models in TensorFlow 2 with tf.data, tf.function & tf.distribute (TF World '19) https://www.youtube.com/watch?v=yH1cF7GnoIo&t=5s 6) Getting involved in the TensorFlow Community (TF World '19) https://www.youtube.com/watch?v=UbWGYcTUPyI&t=16s 7) TensorFlow World 2019 | Day 1 Livestream https://www.youtube.com/watch?v=MgrTRK5bbsg 8) Great TensorFlow Research Cloud projects from around the world (TF World '19) https://www.youtube.com/watch?v=rkqukapSmwQ&t=13s 9) TensorFlow Lite: Solution for running ML on-device (TF World '19) https://www.youtube.com/watch?v=0SpZy7iouFU 10) TensorFlow Model Optimization: Quantization and Pruning (TF World '19) https://www.youtube.com/watch?v=3JWRVx1OKQQ&t=1s 11) TFX: Production ML Pipelines with TensorFlow (TF World '19) https://www.youtube.com/watch?v=TA5kbFgeUlk&t=1452s 12) TensorFlow World 2019 | Day 2 Livestream PM https://www.youtube.com/watch?v=gy6v-Vc_P0U 13) Unlocking the power of ML for your JavaScript applications with TensorFlow.js (TF World '19) https://www.youtube.com/watch?v=kKp7HLnPDxc 14) Day 2 Keynote (TF World '19) https://www.youtube.com/watch?v=zxd3Q2gdArY
#اندر_حکایت #عدم_پاسخ_گویی_شرکت‌های نرم افزاری به درخواست مصاحبه شوندگان : نشر عکس های فوق که همگی درخواست های فقط یک نفر می‌باشد دقیقا در راستای شکستن #تابو عدم پاسخ گویی شرکت ها در خصوص آگهی های ثبت شده و ضربه زدن به فرآیند برندینگ برخی شرکت ها توسط بنده صورت گرفته واز تمام صاحبان رسانه‌(تویتر/پادکست/کانال تلگرام/و هرجایی مخاطبی هست برای خواندن و شنیدن و دیدن) درخواست میکنم در قبال این رفتار غیرحرفه‌ای سکوت نکنند و در حد توان به تحقق مطالبات به حق جامعه ی کوچک برنامه نویسان کمک نمایند ✅ @ai_python #پی.نوشت اول: البته لازم به ذکر می‌باشد برخی معدود(یک تا سه عدد)از این شرکت ها به صورت ایمیلی نتیجه ی رد شدن را اعلام کرده اند پی.نوشت دوم: نحوه ی اطلاع رسانی برخی شرکت ها جهت مصاحبه و فرآیند مصاحبه "دردی دگر است نه درد امروز" که شاید در مجالی دیگر و بحثی دیگر به آن پرداختیم پی.نوشت سوم: بنده به نوبه خودم وظیفه ی خود میدانم در خدمت تمامی دوستان باشم تا دغدغه‌های اصلی و فرعی جامعه ی برنامه نویسی را در توان به گوش همگان برسانم پس اگر دغدغه یا دل‌نگرانی دارید درخدمت شما هستم #پی.نوشت چهارم: این ایده بعد از گوش دادن به پادکست رادیو فول استک و مصاحبه ی آنها با جناب رضا غیاثی عزیز شکل گرفت کمترین شما عزیزان : @majid199372 ✅ @ai_python
با سلام خدمت همراهان گرامی🤗 🎈پیشاپیش ولادت امام حسن عسکری(ع) بر امام زمان(عج) و همه شما مبارک🌹 #اطلاعیه_۱_چهارمین_دوره_سمکد ۱- از هم اکنون میتوانید با تشکیل تیم 👬 خود در سامانه www.quera.ir در مسابقه دست‌گرمی🔥 ثبت‌نام کرده و برای آشنایی با روند مسابقه سمکد، مسائل مربوط به مراحل آنلاین سال‌های گذشته سمکد را حل کرده و ارسال نمایید.😬 ۲- همچنین برای ثبت نام در مسابقه مرحله اول 🥇 نیز می‌توانید از هم‌اکنون ثبت‌نام خود را نهایی کنید. ۳- دقت داشته باشید که ثبت‌نام شما در مسابقه دست‌گرمی🔥 به معنای ثبت‌نام قطعی در مسابقه اصلی🥇 نمی‌باشد. لینک مسابقه دستگرمی: https://quera.ir/contest/other/ ۴- 📜پاسخ‌های شما به مسابقه دست‌گرمی در تعدای از سوالات در همان لحظه نمره‌دهی خواهد شد و در سوال «بهینه‌سازی» باید خودتان طبق نکته‌ای که گفته شده است، با استفاده از فایل آزمایه‌ها نمره خود را استخراج کنید. چنانچه سوالی داشتید، میتوانید در قسمت «سوال بپرسید» سوال خود را مطرح کنید تا مسولان مسابقه در اسرع وقت آن را پاسخ دهند.🤩😏 ۵- همچنین دقت داشته باشید که این مسابقه ویژه دانش‌آموزان دبیرستان‌های دوره اول می‌باشد.
✔️ معرفی #منابع_آموزشی پیشنهادی برای یادگیری هوش مصنوعی #Ai #Deep_Learning #Machine_learning #یادگیری_عمیق #هوش_مصنوعی #یادگیری_ماشین #شبکه_عصبی ✅ گام اول برای یادگیری هوش مصنوعی: - فراگیری پایتون - فراگیری یادگیری ماشین 📍یادگیری ماشین بااستفاده از scikit-learn 👈 لینک دوره 📍یادگیری ماشین با استفاده از پایتون 👈 لینک دوره 📍آموزش یادگیری ماشین 👈 لینک دوره 📍یادگیری ماشین با استفاده از scikit-learn-part1 👈 لینک دوره 📍مبانی مقدماتی تا پیشرفته یادگیری ماشین 👈 لینک دوره ✅ استفاده از منبع های مختلف دانشگاه ها و سایت های معتبر 📍 اصول و روش های هوش مصنوعی از دانشگاه استنفورد 👈 لینک دوره 📍 منابع آموزشی دانشگاه MIT 👈 لینک دوره 📍دوره هوش مصنوعی Saylor 👈 لینک دوره 📍منابع آموزشی موجود در سایت Edx 👈 لینک دوره 📍منابع اموزشی مقدمات هوش مصنوعی 👈 لینک دوره 📍 ویدیو های سخنرانی دانشگاه برکلی 👈 لینک دوره 📍 آموزش یادگیری عمیق Google 👈 لینک دوره 📍ویدیو آموزش یادگیری ماشین دانشگاه کارنگی ملون استاد لری وارسرمن 👈 لینک دوره 📍آموزش شبکه های عصبی برای هوش مصنوعی 👈 لینک دوره ✅ یادگیری نظریه های آمار، احتمال و ریاضی 📍آموزش جبر خطی 👈 لینک دوره 📍آموزش آمار و احتمال دانشگاه MIT 👈 لینک دوره 📍معادلات دیفرانسیل و چندگانه 👈لینک دوره ۱ لینک دوره ۲ 📍آموزش نظریه گراف سایت coursera 👈 لینک دوره 📍آموزش روش های بهینه سازی دانشگاه استنفورد👈 لینک دوره ✅ ویدیوهای فارسی 📍آموزش‌های فارسی یادگیری ماشین دکتر رضوی 👈 لینک 📍گروه فارسی پرسش و پاسخ هوش مصنوعی، یادگیری ماشین و یادگیری عمیق: https://t.me/joinchat/ClyM2kZKfp0_jRXWpiQDkw ✅ برترین مقالات هوش مصنوعی و یادگیری ماشین: @ai_python_arxiv ❇️ @AI_Python
شرح موقعیت شغلی مجموعه پویا پردازش برای گسترش تیم توسعه و طراحی وب، به دنبال عضوی متعهد با تخصص در پیاده‌سازی و توسعه Front-End و مسلط به توسعه WordPress می‌باشد. مهارتهای فنی مورد نیاز: تسلط کامل به HTML5 و CSS3 و مبانی طراحی وب باتجربه و مسلط در سبک‌سازی و بهینه‌سازی سرعت لود صفحات مسلط به Bootstrap و آشنا با بویلرپلیت های دیگر مثل Foundation مسلط در کدنویسی و توسعه jQuery توانایی کار با Api آشنا با JavaScript و توانمند در ویرایش و توسعه آشنایی کامل با اصول On-site SEO طراحی و توسعه صفحات وب بر پایه طرح‌های ارائه شده یا تمپلیت‌های نمونه علاقه مند و صاحب تجربه در طراحی گرافیک، صاحب سلیقه حساس به جزئیات طرح و کیفیت پیاده‌سازی خلاق در تکمیل و بهینه‌سازی طرح های UI و UX تسلط کامل به WordPress و WooCommerce و آشنایی کامل با زیربنا و معماری آنها مسلط در طراحی قالب اختصاصی WordPress از ۰ تا ۱۰۰ مسلط به ساخت theme و child theme آشنایی کامل با PHP و MySQL آشنایی با ضعف‌های امنیتی ووردپرس و توانمند در رفع آنها ارائه چند نمونه از بهترین نمونه کارهای خود تسلط به Java Script, React JS تسلط به فریمورک های مدرن Java Script مانند Redux, React, React Native تمام وقت - پاره وقت حقوق: 2 تا 6 میلیون 📩: [email protected]
16 منبع آموزشی الگوریتمهای هوش مصنوعی〰️〰️〰️ ♾ 1. Speech and Language Processing by Dan Jurafsky and James Martin 🔊 2. Deep Learning for Natural Language Processing by Richard Socher (Stanford University) 🔔 3. Natural Language Processing (NLP) by Microsoft 🔸 4. Andrew Ng’s course on Machine Learning 🔸 5. The video lectures and resources for Stanford’s Natural Language Processing with Deep Learning 🔰 Part 2 🔹6. Sequence Models for Time Series and Natural Language Processing 🔺 7. Deep Natural Language Processing course offered in Hilary Term 2017 at the University of Oxford. 🔺 8. Natural Language Processing Fundamentals in Python by Datacamp 🔺 9 Natural Language Processing by Higher School of Economics 🔸 10 How to Build a Chatbot Without Coding by IBM 🔸 11. CS 388: Natural Language Processing by University of Texas 🔸 12. Natural Language Processing with Python ⚡️ 13. CSEP 517: Natural Language Processing by University of Washington 🔰 14. Dan Jurafsky & Chris Manning: Natural Language Processing 📘 15. NATURAL LANGUAGE PROCESSING by Carnegie Mellon University 📘 16. CS224n: Natural Language Processing with Deep Learning by Stanford University #منابع #یادگیری_ماشین #فیلم #کلاس_آموزشی #الگوریتمها #پردازش_زبان_طبیعی #هوش_مصنوعی #یادگیری_عمیق join👇👇👇 ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
#یادگیری_عمیق دقیقا چیه؟ طی چند روز گذشته، بعضی از محقق‌های بزرگ هوش مصنوعی مانند #یان_لکان و #فرانسوا_شوله تعریف خودشون رو از دیپ لرنینگ توی سال 2019 اعلام کردند. یان لکان: "Some folks still seem confused about what deep learning is. Here is a definition: DL is constructing networks of parameterized functional modules & training them from examples using gradient-based optimization. That's it. This definition is orthogonal to the learning paradigm: reinforcement, supervised, or self-supervised. Don't say "DL can't do X" when what you really mean is "supervised learning needs too much data to do X" Extensions (dynamic networks, differentiable programming, graph NN, etc) allow the network architecture to change dynamically in a data-dependent way." https://www.facebook.com/722677142/posts/10156463919392143/ فرانسوا شوله: "What's deep learning? The "common usage" definition as of 2019 would be "chains of differentiable parametric layers trained end-to-end with backprop". But this definition seems overly restrictive to me. It describes *how we do DL today*, not *what it is*." https://twitter.com/fchollet/status/1210031900695449600 اندری بورکوف: "Looks like in late 2019, people still need a definition of deep learning, so here's mine: deep learning is finding parameters of a nested parametrized non-linear function by minimizing an example-based differentiable cost function using gradient descent." https://www.linkedin.com/posts/andriyburkov_looks-like-in-late-2019-people-still-need-activity-6615377527147941888-ce68/ #deep_learning
16 منبع آموزشی الگوریتمهای هوش مصنوعی〰️〰️〰️ ♾ 1. Speech and Language Processing by Dan Jurafsky and James Martin 🔊 2. Deep Learning for Natural Language Processing by Richard Socher (Stanford University) 🔔 3. Natural Language Processing (NLP) by Microsoft 🔸 4. Andrew Ng’s course on Machine Learning 🔸 5. The video lectures and resources for Stanford’s Natural Language Processing with Deep Learning 🔰 Part 2 🔹6. Sequence Models for Time Series and Natural Language Processing 🔺 7. Deep Natural Language Processing course offered in Hilary Term 2017 at the University of Oxford. 🔺 8. Natural Language Processing Fundamentals in Python by Datacamp 🔺 9 Natural Language Processing by Higher School of Economics 🔸 10 How to Build a Chatbot Without Coding by IBM 🔸 11. CS 388: Natural Language Processing by University of Texas 🔸 12. Natural Language Processing with Python ⚡️ 13. CSEP 517: Natural Language Processing by University of Washington 🔰 14. Dan Jurafsky & Chris Manning: Natural Language Processing 📘 15. NATURAL LANGUAGE PROCESSING by Carnegie Mellon University 📘 16. CS224n: Natural Language Processing with Deep Learning by Stanford University #منابع #یادگیری_ماشین #فیلم #کلاس_آموزشی #الگوریتمها #پردازش_زبان_طبیعی #هوش_مصنوعی #یادگیری_عمیق join👇👇👇 ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
🔥 As you know ML has proven its importance in many fields, like computer vision, NLP, reinforcement learning, adversarial learning, etc .. Unfortunately, there is a little work to make machine learning accessible for Arabic-speaking people. Arabic language has many complicated features compared to other languages. First, Arabic language is written right to left. Second, it contains many letters that cannot be pronounced by most foreigners like ض ، غ ، ح ، خ، ظ. Moreover, Arabic language contains special characters called Diacritics which are special characters that help readers pronounced words correctly. For instance the statement السَّلامُ عَلَيْكُمْ وَرَحْمَةُ اللَّهِ وَبَرَكَاتُهُ containts special characters after most of the letters. The diactrics follow special rules to be given to a certain character. These rules are construct a complete area called النَّحْوُ الْعَرَبِيُّ. Compared to English, the Arabic language words letters are mostly connected اللغة as making them disconnected is difficult to read ا ل ل غ ة. ArbML helps fixing this by implementing many open-source projects that support Arabic, ML and NLP. https://github.com/zaidalyafeai/ARBML #machinelearning #deeplearning #artificialintelligence #nlp ❇️ @AI_Python_EN
شرکت همراه اول برای پروژه «توسعه موتور جستجوی بومی» از متخصصین دارای سابقه مرتبط یا واجدین تخصص‌های زیر دعوت به همکاری می‌کند (با شرایط مناسب): 🔹آشنایی کامل با برنامه نویسی به حداقل یکی از زبان‌های جاوا، پایتون، ++C 🔸آشنایی با مفاهیم برنامه‌نویسی شیء گرا و design patternهای آن 🔹آشنایی و تجربه در حوزه معماری و طراحی سیستم‌های نرم‌افزاری توزیع‌شده و مقیاس‌پذیر 🔸آشنایی با مفاهیم و شاخص‌های حوزه کلان‌داده (big data) 🔹آشنایی و تجربه کار با زیرساخت‌های سیستم‌های توزیع‌شده خصوصا نرم‌افزارهای زیست‌بوم کلان‌داده آپاچی (Hadoop, Spark, Elasticsearch, ...) 🔸آشنایی با برنامه‌نویسی front-end سامانه‌های مبتنی بر وب یا کلاینت‌های موبایل (خصوصا اندروید) 🔹آشنایی با مفاهیم و موضوعات حوزه علوم و تحلیل داده و داده‌کاوی در مقیاس کلان‌داده (شامل پردازش زبان طبیعی (NLP)، الگوریتم‌های تحلیل گراف، الگوریتم‌های خوشه‌بندی و رده‌بندی (Clustering & Classification)، ذخیره و بازیابی اطلاعات متنی (Text retrieval)، ارزیابی کیفیت داده و ...) 🔸آشنایی با مفاهیم حوزه DevOps و Operation و زیرساخت‌های نرم‌افزاری (شامل زیرساخت‌های پردازش ابری، کانتینرها، مجازی‌سازی، راهکارهای تجمیع و تحلیل لاگ و ...) مزایا: ✅ حقوق مناسب و پرداخت به‌موقع ✅ بیمه و بیمه تکمیلی ✅ کارانه در طول سال ✅ مشارکت در پروژه در سطح ملی ✅ حضور در یک تیم با تجربه و کار در حوزه‌های لبه فناوری ✅ امکان رشد و پیشرفت در حوزه‌های تخصصی و شغلی علاقه‌مندان لطفا رزومه خودشون را به همین id یا به پست الکترونیکی [email protected] ارسال کنند.
If a statistician is given data and asked to extract insights from it, there are a number of considerations. Here are some of them. What is the motivation for the analysis? Who will use the results, when will they use them and for what purpose? Am I clear on the meaning of the data? Codebooks are often of little help in answering this question. Are there other data or background information that should be used in the analysis? How clean are the data? Have they been recoded or transformed in any way? Have some fields been imputed? If so, how? Will recoding, transformations or imputations be needed? If there are missing data, why are they missing? Which variables do we need to explain or predict? Which variables will we use to predict them? On the other hand, is unsupervised learning best? Will a single model do, or are there subgroups or latent segments in the data that need to incorporated into the modeling? Would a hierarchical model be appropriate? If the data are longitudinal or time-series, there are a host of issues that will need to be addressed. When mining any data, patterns will found which cannot be explained and have no clear utility to decision makers or other researchers. The above would apply even if the statistician is an AI. ❇️ @AI_Python
#اندر_حکایت : آموزش از طریق تلویزیون #آموزش_از_راه_دور #تلوزیون #کورونا ❇️ @AI_Python ✴️ @AI_Python_EN دقایقی پیش در اخبار رسمی شبکه ی دوم صدا و سیمای جمهوری اسلامی ایران مطلع شدم بخشی از فرآیند یادگیری مدارس توسط شبکه های تلویزیونی به عهده گرفته شده و سالها پیش وقتی خبر ساخت هواپیماهای روز قیامت روسیه شنیدم عمیقاً در فکر و تحیر فرو رفته بودم که علت ساخت همچنین تجهیزاتی واقعاً چیست و چه لزومی داره (اگر نمیدونید این هواپیما چیه: https://fa.alalamtv.net/news/1906122/%D8%B9%DA%A9%D8%B3%D8%9B-%DA%86%D8%B1%D8%A7-%D8%A2%D9%85%D8%B1%DB%8C%DA%A9%D8%A7-%D8%A7%DB%8C%D9%86-%D9%BE%D8%B1%D9%86%D8%AF%D9%87-%D8%B1%D9%88%D8%B3%DB%8C-%D8%B1%D8%A7-%D8%B1%D9%88%D8%B2-%D9%82%DB%8C%D8%A7%D9%85%D8%AA-%D9%86%D8%A7%D9%85%DB%8C%D8%AF%D8%9F ) و اما امروز بیشتر از هر زمانی میبینم که واقعا کشورها چه نیازی به پدافند غیرعامل دارند سالهای سال است که ما در کشور خود متعدد اسم های دولت الکترونیک و همچنین مداراس هوشمند را میشنویم و امروز با هجوم موج اولیه ی بیماری #کورونا واقعاً چند سوال اساسی ذهن این نویسنده را به خود مشغول کرده است #سوال اول : چرا وزارت آموزش و پرورش کشور تا کنون به فکر تولید یک سیستم جامع آموزش از راه دور مانند وبینیار و سایر سیستم های تصمیم یار(DSS) نیوفتاده است ؟ با توجه به اینکه کشور ما همراه درگیر مشکلاتی از قبیل: بلای طبیعی ، خطر جنگ ، و دیگر عوال محیطی مانند آلودگی هوای کلان شهرها هجوم همه ساله ی ریز گردها و سایر موارد بوده ،هست و خواهد بود #سوال دوم: آموزش از طریق تلویزیون واقعا در کجا دنیا یک مثال عملگرایانه و تجربی بوده؟ اگر کسی از خوانندگان عزیز مثالی را سراغ دارد با بنده هم به اشتراک بگذارد #سوال سوم: وزیر جوان تا چه زمانی دست از اظهار نظرهای پوپولیستی نظیر پست هوایی خواهد شست و واقعاً در پی حل مشکلاتی که فناوری اطلاعات میتواند نقش عمده ای در حل آن ایفا کند بر خواهد آمد ؟ #سوال چهارم: کارهایی از قیبل امور بانکی خریدهای ضروری غیر آنلاین-نابرخط :)، ارائه خدمات دولتی به صورت غیر حضوری، کارمندی بدون قابلیت دورکاری، ارائه خدمات غیردولتی به صورت غیر آنلاین جز اصلی ترین علت های خروج این روزه مردمان عزیز ما از منازل مسکونی خود است آیا با توجه به این تجربه گذرا و مهم نباید دولت به صورت جدی در پی ساخت و راه اندازی اینگونه سیستم‌های آنلاین به صورت واقعی و عمگرایانه (pargmatic)و به دور از هرگونه نمایش باشد؟؟؟ تا در زمان و مکان مناسب کاملا رایگان جایگزین فعالیت های اجتماعی شهروندان ایرانی شود(همچین تمام فرآیندها میتواند ایزوله و کاملا بهداشتی پیمایش شود مانند خریدهای ضروری مردم عزیز)؟ #یادآور میشود مطالب فوق صرفاً یک تحلیل نیمه تخصصی ایست برای بهبود عملکرد خادمین ملت ایران امید است که این مقالات و نظرات به سمع و نظر دلسوزان و خادمین ملت برسد و موجو بهبود اوضاع کشور شود در #آخر با پرهیز از هرگونه اضافه گویی با توجه به وضعیت کنونی کشور از تمام پرسنل پزشکی، پرستاری، پیراپزشکی، بهداشتی درمانی نهایت تشکر را داریم چراکه اینگونه خدمات در این لحظات بحرانی با هیچ میزان هزینه مالی قابل قیاس نیست کمترین شما عزیزان : مجید آقامحمد پذیرای هرگونه انتقاد و پیشنهاد شما هستم: @majid_aghamohammad ❇️ @AI_Python ✴️ @AI_Python_EN
🔸🔹برنامه نویس ارشد پایتون🔹🔸 به منظور توسعه محصولات دانش‌بنیان در حوزه علم‌داده‌ها، نیازمند 2 فرد باتجربه و بامهارت بالا در زمینه برنامه‌نویسی پایتون در دفتر مشهد هستیم. اگر دارای شرایط عمومی و مهارت‌های ذیل هستید و علاقمند به حضور و فعالیت در توسعه محصولات دانش‌بنیان در یک محیط استارتاپی پویا با شرایط کاری بسیار مناسب می‌باشید، لطفا با ما تماس بگیرید: 🔻 شرایط عمومی: • دارای روحیه تیمی • منظم و مسئولیت پذیر • حداقل سه سال سابقه کار حرفه‌ای مرتبط 🔻 مهارت‌های موردنیاز: • تسلط کامل به Python • مسلط به مفاهیم NoSQLتجربه کار با MongoDB و MySQL/MS SQL • مسلط به Django/Flask • مسلط به طراحی RESTful APIs و مفاهیم وب سرویس • آشنایی با سیستم عامل لینوکس • آشنایی با Docker, kubernetes و Docker compose • تجربه کاری با TensorFlow/Pythorch/Keras مزیت محسوب می‌شود 🔻 مزایا: • حقوق بسیار مناسب متناسب با سطح تجربه و دانش • بیمه • محیط پرنشاط و پویا تلفن تماس: 09154009148 ایمیل: [email protected] (در صورت دریافت ایمیل، تاییدیه برایتان ارسال خواهد شد) #python #Django #استخدام
Build TensorFlow input pipelines with tf.data ⚪️فیلم وبینار فارسی tf.data و راه‌کارهای افزایش سرعت آموزش - پنج‌شنبه مورخ ۱۴ فروردین ۱۳۹۹ ⚪️سطح: پیشرفته (کد نویسی) این وبینار به آموزش مراحل ساخت pipeline ورودی TensorFlow2 و keras با tf.data و دلایل استفاده نکردن از پیش‌پردازش‌های keras نظیر ImageDataGenerator و لزوم بهره‌گیری از tf.data پرداخته است. بعد از بررسی گام‌های مختلف ETL به عنوان مثال عملی، Transfer learning برای طبقه بندی تصویر را با tf.data انجام دادیم. در نیمه‌ی دوم وبینار بیشتر روی افزایش performance سرعت آموزش و تست بحث شد و راه‌کارهایی نظیر prefetch، Parallelize ، transformation، cache،snapshot، tf.function، XLA و همچنین mixed precision بحث شد. اسلاید‌های وبینار https://www.slideshare.net/Alirezaakhavanpour/build-tensorflow-input-pipelines-tfdata فیلم وبینار در آپارات: https://www.aparat.com/v/HGvC2 کدهای اسلایدها و مثال عملی: https://github.com/Alireza-Akhavan/class.vision/tree/master/tf2 #منابع #فیلم #پایتون #تنسرفلو #پردازش_تصویر #انتقال_یادگیری #Python این روزهای قرنطینه خودتون رو با این آموزشهای خوب سپری کنید. ❇️ @AI_Python
#صدای_دانشجو #ارسالی_دانشجویان سلام اقا توروخدابزارید کانال این همه میگن کلاسا مجازی ک هیچ تلاشم میکنن امتحانا مجازی به این فکرکردن شایدیکی لپ تاپ نداره نمی تونه توکلاسا شرکت کنه فقط یه گوشی ک اونم نمی کشه برنامرو بازنمی کنه اینترنت دادن به همه ولی کسی ک لپ تاپ نداره نمی تونه توکلاساشرکت کنه چیکارکنه دوراه بیشترنداره یاحذف ترم کنه یا خانوادشو به فشاربندازه ک براش لپ تاپ بخرن این انصافه واقعا؟؟دانشجو چه گناهی داره ک حذف ترم کنه چرا باید ازدوستاش عقب بمونه خانواده چه گناهی داره به خاطر بچه اش تواین روزاک بیشترمردم روزمرشونوبه زور می گذرونن کسب وکارنیس به قرض بیوفته تا بچش بتونه توکلاسا شرکت کنه ماهاچه گناهی داریم پدرمادرامون چه گناهی دارن واقعا چی میشه ازمرداد شروع شه ؟هواگرمه مگه توزمستون سردنبود چجوری میرفتیم کلاسا واقعایکم رسیدگی کنین قرارنیس هردانشجوی لپ تاپ یاهرچی داشته باشه چون دانشجوس نیازاش کامل باشه یکم فکرِهمه باشین تواین وضع بجای شاد بود پدرمادرارو درمقابل بچه هاشرمنده نکنین هیچ پدری ازاینک نتونه نیازبچشو تامین کنه خوشحال نمیشه بیشترپدرا بروز نمی دن ولی ازدرون داغونن بخاطر این مسله کوچیک توخونه هاناراحتی نندازن دیرشروع شه دیرتموم شه عیب نداره هرکسی یه مشکلاتی داره شاید50%درصد همین مشکلی ک من دارمو دارن ولی نمی گن حذف ترمو ترجیح میدن به گفتن تااین ک خرد نشن درحالی ک خردشدن نداره درس خوندن به اینجوررچیزانیس درسته وسایل موردنیازه ولی اونیکه نداره عیبم نیس ومشکل ماهاهم نیس باعث بانی کرونا دانشجوهانیستن مسولان یکم توتصمیم گیری همرو درنظربگیرین🙏 @tabriz_university
‌ ‌ ❇️ مجموعه مقالات و آموزش‌های بورس امروزه، یکی از فعالیت‌های مفید و پرسود اقتصادی ورود به بازار سهام و فعالیت در آن است. اما این حوزه نیز مانند هر زمینه دیگری، یک موضوع تخصصی محسوب می‌شود و هر فردی که علاقه‌مند به فعالیت در زمینه بورس و بازارهای مالی است، باید آموزش‌های لازم را برای یک فعالیت اقتصادی مطمئن، دیده باشد. در ادامه، منابع آموزشی و مطالعاتی مربوط به بورس و بازار سهام برای افرادی که قصد فعالیت در این حوزه را دارند، معرفی شده است. 📈 راهنمای کامل آشنایی با مفاهیم پایه‌ای بورس و بازار سهام در مطلب «بورس چیست؟»، که پیش از این در مجله فرادرس منتشر شده، به مفاهیم پایه‌ای و اساسی بورس و بازار سهام، به زبان بسیار ساده پرداخته شده است. مطالعه این مطلب، که به رایگان در دسترس است، به کلیه افرادی که قصد آشنایی با این حوزه را دارند، اکیدا توصیه می‌شود. 🔗 بورس چیست؟ — به زبان ساده [+] 📈 مجموعه آموزش‌های بورس و بازارهای سهام یکی از زمینه‌هایی که در آموزش‌های ویدئویی فرادرس به طور جامع و گسترده به آن پرداخته شده، حوزه بورس و بازار سرمایه است. تا کنون، ۲۰ عنوان آموزشی در زمینه بورس، تحلیل تکنیکال و بازار سهام، روی فرادرس ارائه و بیش از ۹۰ هزار ثبت نام در آموزش‌های این حوزه انجام شده است. این آموزش‌ها، با همکاری مدرسین مجربی تهیه شده است که سال‌ها سابقه فعالیت و مشاوره در حوزه بازار سهام را داشته‌اند و هزاران نفر، آموزش‌های مربوط به این حوزه‌ها را، از این مدرسین با تجربه آموخته‌اند. 🔗 مجموعه کامل آموزش‌های بورس و بازار سهام 📈 آموزش‌های رایگان بورس و بازار سرمایه در طرح آموزش رایگان فرادرس، تعدادی از آموزش‌های حوزه بورس و بازارهای سرمایه به صورت رایگان ارائه شده‌اند. از جمله این آموزش‌ها می‌توان به آموزش تحلیل تکنیکال اشاره کرد. این آموزش که طول آن قریب به ۱۲ ساعت است، و همچنین سایر آموزش‌های بورس و بازارهای سرمایه که در این طرح رایگان شده‌اند، از طریق لینک زیر قابل دریافت هستند: 🔗 آموزش تحلیل تکنیکال در بازارهای مالی لینک برخی از دیگر عناوین آموزش‌های فرادرس در زمینه بورس و بازارهای سهام: 🔗 آموزش مقدماتی بازار بورس — از ورود تا شروع معاملات سهام 🔗 آموزش نوسان‌گیری در بورس 🔗 آموزش تحلیل تکنیکال معاملات سهام 🔗 آموزش تحلیل تکنیکال با ایچیموکو 🔗 آموزش فیلترنویسی در بورس 🔗 آموزش نرم‌افزار متاتریدر (Meta Trader) 🔗 آموزش استراتژی معاملات رابرت ماینر 🔗 آموزش مبانی مدیریت سرمایه گذاری 🔗 آموزش آشنایی با بازارهای مالی 🔗 آموزش تحلیل تکنیکال در بازارهای مالی فهرست کامل آموزش‌های این حوزه نیز، از طریق لینک زیر در دسترس است: 🔗 ✅ مجموعه کامل آموزش‌های بورس و بازار سهام 📚 فرادرس دانش در دسترس همه همیشه و همه جا @FaraDars — فرادرس ‌‌
✔️دوره آموزش جنگو به زبان فارسی #جنگو #Django این دوره ی آموزشی جنگو به صورت مقدماتی تا پیشرفته و پروژه محور در یوتیوب برگزار میشود. از جلسه ۳۹ هم به شیوه ی بروز ریکورد میشه. ۰۰۰ - معرفی https://www.youtube.com/watch?v=XVNnOa41jT0 ۰۰۱ - نصب ابزارهای مورد نیاز در لینوکس و شروع اولین پروژه https://www.youtube.com/watch?v=ZuOBNb8QFCA ۰۰۲ - نصب ابزارهای مورد نیاز در ویندوز و شروع اولین پروژه https://www.youtube.com/watch?v=GTBV9lTyujw ۰۰۳ - اولین ویو در جنگو https://www.youtube.com/watch?v=A89BDmTVqQ0 ۰۰۴ - ادامه ویوها، پاسخ Json و بیشتر https://www.youtube.com/watch?v=f5BhHYcSOuo ۰۰۵ - شورتکات render و کار با template https://www.youtube.com/watch?v=nvJ1rridz8M ۰۰۶ - شروع کار با مدل ها https://www.youtube.com/watch?v=vEi9lwkRAxg ۰۰۷ - تنظیم آپلود و نمایش media https://www.youtube.com/watch?v=WqWpyYSoPa8 ۰۰۸ - تنظیمات پنل مدیریت در جنگو https://www.youtube.com/watch?v=RSnfZ05GqRk ۰۰۹ - دریافت اطلاعات دیتابیس به وسیله model و نمایش در view https://www.youtube.com/watch?v=JuzvV5IefMc ۰۱۰ - ویو جدید، url جدید https://www.youtube.com/watch?v=OlOQmEwHMos ۰۱۱ - استفاده از یک قالب آماده در template https://www.youtube.com/watch?v=wXdnivPPfM0 ۰۱۲ - استفاده از قالب base و extends در template https://www.youtube.com/watch?v=2rs9XrlK_fM ۰۱۳ - نمایش محتوا در template، فیلتر و موارد بیشتر https://www.youtube.com/watch?v=ZwvmQYaqr0E ۰۱۴ - رفع یک مشکل https://youtube.com/watch?v=wC5PAeRkONM ۰۱۵ - فارسی سازی ادمین پنل و تنظیم ساعت https://youtube.com/watch?v=eFbhQVQwu4M ۰۱۶ - نوشتن تابع برگرداندن تقویم شمسی در جنگو https://youtube.com/watch?v=MDDqZtuNoCY ۰۱۷ - مبدل اعداد فارسی https://youtube.com/watch?v=4kASKVt719M ۰۱۸ - شروع با مدل دسته‌بندی https://www.youtube.com/watch?v=9zTwKFCI390 ۰۱۹ - نمایش دسته بندی ها در پنل مدیریت https://youtu.be/62vRRZVqLQo ۰۲۰ - نمایش دسته‌بندی ها در نوبار وبلاگ https://www.youtube.com/watch?v=CsCpUpAxUA8 ۰۲۱ - راست‌چین کردن قالب وبلاگ https://www.youtube.com/watch?v=xSxXFZxDHk4 ۰۲۲ - ایجاد تگ های اختصاصی https://www.youtube.com/watch?v=Am6TNNJc9GM ۰۲۳ - نمایش لیست مقالات هر دسته‌بندی و رفع باگ https://www.youtube.com/watch?v=zfPr-Est1tc ۰۲۴ - شروع کار با منیجرها در جنگو https://www.youtube.com/watch?v=tV5Tmvim0n8 ۰۲۵ - صفحه بندی وبلاگ (پیجینشن) در جنگو https://www.youtube.com/watch?v=icbqZpkzcOs ۰۲۶ - ایجاد صفحه‌بندی دسته‌بندی ها و ایجاد منیجر https://www.youtube.com/watch?v=ZwNzbwHOStY ۰۲۷ - دسته‌بندی های تودرتو در جنگو، طراحی مدل https://www.youtube.com/watch?v=DykiBST2kA8 ۰۲۸ - دسته‌بندی های تودرتو در جنگو، طراحی تمپلیت https://youtube.com/watch?v=CucVNtRvJBE ۰۲۹ - دسته‌بندی های تودرتو در جنگو، استایل مناسب https://youtube.com/watch?v=7e6ceUSq6h0 ۰۳۰ - آغاز کار با کلاس‌بیس‌ویوها: ListView https://youtube.com/watch?v=24oB6SZR5QE ۰۳۱ - کلاس‌بیس‌ویوها: DetailView https://www.youtube.com/watch?v=cnpJ7WhScpI ۰۳۲ - ایجاد بخش مقالات یک دسته‌بندی با کلاس‌بیس‌ویو https://youtube.com/watch?v=ncoIEXXrywk ۰۳۳ - اکشن در پنل مدیریت جنگو https://youtube.com/watch?v=l3LfZinjr5c ۰۳۴ - نمایش تصویر بندانگشتی در پنل مدیریت (نمایش محتوای HTML) https://youtube.com/watch?v=EWXAVzAgjcg ۰۳۵ - دستکاری فونت و استایل پنل مدیریت در جنگو https://www.youtube.com/watch?v=gjAiVmbK7dg ۰۳۶ - آشنایی با تمپلیت پنل مدیریت جنگو و تغییرات آن https://www.youtube.com/watch?v=iBzuZ8ff1fQ ۰۳۷ - آپلود پروژه جنگو بر روی گیت‌لب https://www.youtube.com/watch?v=ir8smyVFZ7M ۰۳۸ - بهبود کدهای پروژه ی جنگو https://www.youtube.com/watch?v=cUEGR0lBxyA ۰۳۹ - کلاس User در جنگو و ساخت صفحه لیست مقالات نویسندگان https://www.youtube.com/watch?v=4v6ysHL3H3I ۰۴۰ - آموزش جنگو - شروع ساخت پنل مدیریتی شخصی، کار با decorator و mixin در جنگو https://www.youtube.com/watch?v=btxImixfNVw ۰۴۱ - آموزش جنگو - طراحی و تنظیم قالب صفحه لاگین https://www.youtube.com/watch?v=1I9knKwytaw ۰۴۲ - آموزش جنگو - django tweaks و مدیریت خطاهای ورود https://www.youtube.com/watch?v=8NmdsQu0bWw ۰۴۳ - آموزش جنگو - دانلود و تنظیم قالب AdminLTE https://www.youtube.com/watch?v=-en0uYR0Unk ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
انواع پارتیشن بندی در موقعیت‌های مختلف اول از همه باید متوجه شوید در چه حالتی سیستم بوت شده‌است. گاهی اوقات سیستم شما معمولا اگر قدیمی باشد، از فرمویر UEFI پشتیبانی نمی‌کند. هنگامی که live سیستم را بالا آوردید، دستور زیر را برای بررسی این مورد داخل ترمینال اجرا کنید: $ ls /sys/firmware/efi در صورت وجود این دایرکتوری یعنی شما UEFI بوت کرده‌اید. در مرحله دوم، شما نیاز دارید که Partition table خودتان را متوجه شوید. دستورات زیادی هستند که این اطلاعات را به شما می‌دهند. 1)Fdisk $ sudo fdisk -l /dev/sdXY در خروجی، جلوی Disklable type اگر dos نوشته شده بود، یعنی شما پارتیشن تیبلی که دارید mbr است. در غیر این صورت، gpt نوشته شده. 2)Parted $ sudo parted -l /dev/sdXY در خروجی، جلوی Partition table می‌توانید پارتیشن تیبل خود را متوجه شوید. ۱.پارتیشن تیبل MBR و بوت BIOS (legacy) در این حالت، شما تنها می‌توانید ۴ پارتیشن primary ایجاد کنید و همچنین‌ نهایت اندازه پارتیشن شما ۲ ترابایت خواهد بود. در صورتی که بیش از ۴ پارتیشن نیاز داشتید، می‌توانید یک پارتیشن extended بسازید و زیر مجموعه‌های آن را logical درست کنید. شما در این حالت، محدودیت تعداد (در حد نیاز حداقل) ندارید. اگر می خواهید علت محدودیت ۴ پارتیشن پرایمری و ۲ ترابایت فضا را بدانید به اینجا مراجعه کنید. ساختار پارتیشن‌های شما به صورت پیشنهادی می تواند به شکل زیر باشد: /boot: 500-800 MB / : 45 - 50 GB swap: (اگر نیاز دارید) /home: OTHER شما حتماً باید پارتیشن boot را bootable نمایید. اگر پارتیشن boot ایجاد نمی‌کنید، باید / را bootable کنید. دستور برای نصب/کانفیگ گراب در این حالت داخل آرچ/فدورا: $ grub-install --target=i386-pc /dev/sdX $ sudo grub-mkconfig -o /boot/grub/grub.cfg ۲.پارتیشن تیبل gpt و بوت UEFI در این صورت، شما محدودیت تعداد پارتیشن نخواهید داشت. بنابراین به صورت دلخواه پارتیشن‌های خود را ایجاد کنید. اما الزاما باید دایرکتوری efi را ایجاد نمایید‌. پارتیشن بندی پیشنهادی برای این حالت: /boot/efi : 300 MB /boot : 500-800 MB / : 45 - 50 GB swap : (اگر نیاز دارید) /home : OTHER در این حالت شما نیاز به bootable کردن پارتیشنی نخواهید داشت. تنها نیاز است که به پارتیشن efi فلگ esp زده شود. شاید زیاد ببینید که به جای /boot/efi مسیر /efi در سمپل ها است.اما فرقی ندارد، هر توزیعی طبق سیاست خود پیشنهاداتی می دهد. در این حالت شما برای نصب/کانفیگ۳ گراب نیاز به دستور زیر دارید : $ grub-install --target=x86_64-efi --efi-directory=esp --bootloader-id=GRUB $ grub-mkconfig -o /boot/grub/grub.cfg ۳.پارتیشن تیبل GPT و بوت BIOS این حالت دقیقا همانند حالت ۱ است با این تفاوت که شما نیازمند پارتیشن BIOS boot partition هستید. تنها کافیست این پارتیشن را با حجم 1MB ایجاد نمایید و سایر موارد را مشابه مرحله اول ایجاد کنید. شما در این حالت به علت GPT بودن پارتیشن تیبل با محدودیت های MBR روبرو نخواهید بود. #لینوکس #grub #partitioning #installation #uefi #legacy ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
‌ مجموعه پادکست کاربردهای هوش مصنوعی در کسب و کار بخش نهم: سیلزفورس (Salesforce) برخی مطالب پوشش داده شده: - تاریخچه سیلزفورس - بررسی صنعت اجاره نرم‌افزار - مدیریت ارتباط با مشتریان (CRM) - کاربردها و ابعاد CRM - انیشتین: مغز هوشمند Sf - بررسی قابلیت‌های مختلف انیشتین - ابعاد سرمایه‌گذاری Sf در هوش مصنوعی - کاربرد هوش مصنوعی در فروش، خدمات، بازاریابی و تجارت 📚 مراجع 1️⃣ کتاب Artificial Intelligence in Practice، انتشارات وایلی، ۲۰۱۹ [+] 2️⃣ مدخل SaaS در ویکی‌پدیا [+] 3️⃣ مقاله‌ای درباره SaaS در cio.com [+] 4️⃣ توضیحات محصول انیشتین در سایت سیلزفورس [+] 5️⃣ بررسی دستاوردهای Sf در حوزه هوش مصنوعی در wired.com [+] 6️⃣ بررسی انیشتین در وبسایت computerworld.com [+] 7️⃣ بررسی انیشتین در وبسایت softwareadvice.com [+] 8️⃣ بررسی قابلیت‌های صوتی انیشتین در وبسایت venturebeat.com [+] ✴️ شنیدن این اپیزود در دیگر پلتفرم‌ها 🎧 کست‌باکس [+] 🎧 اینستاگرام [+] #پادکست #هوش_مصنوعی ـــــــــــــــــــــــــــ سید مصطفی کلامی هریس وبسایت: kalami.ir کانال رسمی: @KalamiHeris کانال پرسش و پاسخ: @Kalami_QA ‌‌
شرکت داده پردازی نیک آفرین جهت تکمیل تیم فنی دپارتمان هوش مصنوعی خود در شهر تهران (پاره وقت و تمام وقت) به دنبال جذب تعدادی نیرو در حوزه های تخصصی زیر می باشد: 🔶 بینایی ماشین و پردازش تصویر 🔶 پردازش و تحلیل صوت 🔶 پردازش زبان طبیعی 🔶 پردازش سری های زمانی ❇️ مهارت های اختصاصی • تسلط به زبان های برنامه نویسی و کتابخانه های رایج یادگیری ماشین/یادگیری عمیق • آشنایی کافی با زبان انگلیسی برای استفاده از منابع انگلیسی • تجربه کار کردن با GitHub (مزیت محسوب می شود) • تجربه کار کردن با سیستم عامل لینوکس و اسکریپت نویسی (مزیت محسوب می شود) • توانمندی در مستند سازی پروژه (مزیت محسوب می شود) ❇️ ویژگی های فردی • دارای روحیه تیمی و اخلاق حرفه ای کاری • با انگیزه و علاقه مند به حل مسئله و ارائه راه حل های جدید • مسئولیت پذیر، پیگیر و منظم در کارها • دارای روحیه یادگیری بالا و جستجو در اینترنت ❇️ معرفی شرکت دپارتمان هوش مصنوعی شرکت داده پردازی نیک آفرین با هدف اولیه طراحی سیستم های امنیتی و توسعه سامانه های پردازش تصویر مبتنی بر هوش مصنوعی آغاز به فعالیت نموده است و در حال گسترش فعالیت های خود به دیگر حوزه های تجاری می باشد. پروژه های کنونی این واحد در حوزه های حفاظت، ایمنی و امنیت،حمل و نقل و زیست فناوری می باشد. ☯️ متقاضیان می توانند رزومه کاری خود را به آدرس ایمیل شرکت به نشانی [email protected] ارسال نمایند.
16 منبع آموزشی الگوریتمهای هوش مصنوعی〰️〰️〰️ ♾ 1. Speech and Language Processing by Dan Jurafsky and James Martin 🔊 2. Deep Learning for Natural Language Processing by Richard Socher (Stanford University) 🔔 3. Natural Language Processing (NLP) by Microsoft 🔸 4. Andrew Ng’s course on Machine Learning 🔸 5. The video lectures and resources for Stanford’s Natural Language Processing with Deep Learning 🔰 Part 2 🔹6. Sequence Models for Time Series and Natural Language Processing 🔺 7. Deep Natural Language Processing course offered in Hilary Term 2017 at the University of Oxford. 🔺 8. Natural Language Processing Fundamentals in Python by Datacamp 🔺 9 Natural Language Processing by Higher School of Economics 🔸 10 How to Build a Chatbot Without Coding by IBM 🔸 11. CS 388: Natural Language Processing by University of Texas 🔸 12. Natural Language Processing with Python ⚡️ 13. CSEP 517: Natural Language Processing by University of Washington 🔰 14. Dan Jurafsky & Chris Manning: Natural Language Processing 📘 15. NATURAL LANGUAGE PROCESSING by Carnegie Mellon University 📘 16. CS224n: Natural Language Processing with Deep Learning by Stanford University #منابع #یادگیری_ماشین #فیلم #کلاس_آموزشی #الگوریتمها #پردازش_زبان_طبیعی #هوش_مصنوعی #یادگیری_عمیق join👇👇👇 ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
Andriy Burkov It's annoying that people writing about machine learning and statistics use the word "sample" in the sense of a single training example. For example, they could write "a model takes a sample as input and outputs a prediction." You have no idea, whether the model takes one or several elements as input and how many outputs it yields. A sample is a randomly chosen *collection* of examples from a larger collection. So, a sample is a group of examples, not an individual example. Sample and example cannot be used interchangeably. Doing so in your text makes it very hard to follow and could even make the entire text useless. Vadim: CS people in general have a problem with correct terminology. Like, using "vector" to mean variable-length array. (Never mind than few ever heard of pseudovectors:) Or "integer" to mean elements of finite multiplicative ring Z/nZ. Or calling floating point values -0 and +0 "zeros" (they're infinistemals, not zeros). And the best of it: "software engineers". Sorry, folks, artisans are not engineers. ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
AI is a Lie Imagine this to be true for a moment Imagine there’s a group of few weird animals who are pretending to be ‘AI’ These animals have one special power Whenever you ask them a question they would reply back with a decision But your question should be supported with some examples for them to learn from For example: - If I ask the animals to determine whether a person is happy or sad The animals would need to be first trained through some examples in order to understand the 2 types of emotions Sadly their decisions won’t be perfect always But if you keep training them with more examples they are likely to improve their decision making abilities Also there are various types of these animals some who require less examples while some who require more It’s your call to choose which animal should answer your question You can even choose mutliple animals This is how ML works in real-life too ML models (Animals) learn through examples and takes decisions based on the input given It’s your call to choose which model The output won’t be perfect always But if you keep on training your model with relevant new examples It’d learn to improvise What would you want these animals to do for you? #machinelearning #datascience #artificialintelligence
We are hiring a "Search Engineer" The Opportunity: Myket Android Store is looking for top Back-End/Search engineer to join our software engineering team and help drive the future of our data and insight platform. As a member of the Myket's back-end team you will be working on various components of the search platform - search ranking, search query interpretation, index data modeling and pipelines. Responsibilities will include design, development and maintenance of core search components that serves millions of customers. Education Details: * BS or MS in Computer Science or related domains. Key Qualifications: * Good understanding of server-client protocols, algorithms and data structures * Experience developing high quality, high performance Server Software in C#, Java, or Python * Good understanding of HTTP server architecture, Information Retrieval techniques * Understanding of IO issues, disk and network * Ability to quickly prototype ideas and using creative approaches for solving complex problems. * Strong communication skills with ability to facilitate conversations with team members regarding project definition, business requirements definition and functional design sessions Pluses: * Experience with and background in Information Retrieval, Ranking Systems, Recommendation Systems or Artificial Intelligence * Experience with Search Engines, Machine Learning, and/or Natural Language Processing (particularly Solr/Lucene/Elastic) * Experience in RDBMS & NOSQL database * Experience in REST API design and some experience building software based on a micro services software architecture Please send you resume to [email protected] or contact me for more details: @rahimiaan
وقتی مهندسان مکانیک به کمک پزشکان جهت کنترل بیماری کوید ۱۹ می آیند. #covid19 #coronavirus #HVAC_Savalan در این مقاله که اخیرا چاپ شده، بنده افتخار مسئولیت نویسندگی آن را بر عهده داشتم. در این مقاله ما با معرفی و ساخت یک نوع مبدل حرارتی طولی هوا به هوا و قرار دادن آن در کانال خروجی سیستم های تهویه مطبوع بیمارستانی، ایروسول حاوی ذرات کرونا ویروس جدید را گرم می کنیم و این امر باعث از بین رفتن این ویروس در مسیر خروجی کانال می شود. بی شک بسیاری از ماها هنگام عبور از اطراف بیمارستان ها و محل های نگه داری بیماران کوید ۱۹، دچار دلهره و استرس می شویم. شاید دلیل آن سیستم های تهویه مطبوع بیمارستانی باشد که این ویروس را به اطراف پخش می کنند. در این مقاله به خوبی مکانیزم انتقال این بیماری از طریق ایروسول توضیح داده شده است. اخیرا سازمان بهداشت جهانی هم در رابطه با انتقال این بیماری از طریق هوا تاکیداتی داشتند، که صحه ای بر ایده ی ما بود. بی شک وظیفه ی ریشه کنی و کنترل این بیماری منحوس به عهده ی پزشکان نیست و ما مهندسان مکانیک چه بسا به صورت اصولی تر می توانیم این بیماری را کنترل و نابود کنیم. https://doi.org/10.1063/5.0021575 شایان ذکر هست این مبدل حرارتی طولی هوا به هوا در شرکت تاسیساتی ساوالان واقع در تبریز ساخته شده است. با تشکر عطا نظری @AMSopenFOAM
مجموعه پادکست کاربردهای هوش مصنوعی در کسب و کار بخش دهم: امریکن اکسپرس برخی مطالب پوشش داده شده: - تاریخچه و سوابق - اطلاعات مالی و عملکردی - مشکلات موجود در حوزه پرداخت اعتباری - تشخیص تقلب - حفظ و بهبود تجربه مشتریان - تشخیص پرداخت‌های تقلب و غیر مجاز - دستیار Mezi - افزایش امنیت تراکنش‌ها با دستیار شخصی - آشنایی با Apache Hadoop - بررسی نتایج به دست آمده 📚 مراجع: 1️⃣ کتاب Artificial Intelligence in Practice، انتشارات وایلی، 2019 2️⃣ مدخل American Express در ویکی‌پدیا 3️⃣ گزارش مصور شرکت Amex در سال 2018 4️⃣ گزارش نیلسون در زمینه ابعاد مالی تقلب در کارت اعتباری 5️⃣ بررسی کاربردهای یادگیری ماشین در تشخیص تقلب 6️⃣ رویکرد Amex برای استفاده از یادگیری ماشین 7️⃣ شرکت Amex چطور از کلان‌داده و هوش مصنوعی استفاده می‌کند؟ 8️⃣ یادگیری ماشین در شرکت American Express ✴️ شنیدن این اپیزود در دیگر پلتفرم‌ها 🔗 کست‌باکس [+] 🔗 اینستاگرام [+] #پادکست #هوش_مصنوعی ـــــــــــــــــــــــــــــــــ سید مصطفی کلامی هریس وبسایت: kalami.ir کانال رسمی: @KalamiHeris کانال پرسش و پاسخ: @Kalami_QA ‌
📌استخدام کارشناس زیرساخت 📌شرکت: هلدینگ مالی بانکی 📌 محل کار: تهران ✅مهارت و تخصص‌های مورد نیاز: 🔺تسلط به تنظیمات فایروال‌ها و UTMها و آشنایی کامل با رخداد‌های آنها 🔺تسلط به مجازی سازیVMware و نرم افزار‌های مرتبط 🔺تسلط به VCenter و VMware view، virtualization 🔺آشنا و مسلط به راه‌اندازی خصوصیات پیشرفته مثلStorage DRS، DRs،VMotion،FT،HA 🔺آشنا و مسلط به مجازی سازی دسکتاپ (VDI) 🔺 آشنا و مسلط بهStorage and SAN Switch Optimization 🔺مسلط به پیاده سازی و نگهداری زیر ساخت پشتیبان‌گیری از سیستم‌های مجازی و فیزیکی 🔺 مسلط به نرم افزار مانیتورینگVMware vROPS و Veeam ONE 🔺آشنا و مسلط به راه‌اندازی،نگهداری و به‌روز رسانی انواع سرور‌هایHP 🔺مسلط به مفاهیمMCITP 🔺آشنایی با ساختارهای Container و Orchestration 🔺آشنایی با ساختار های ابری ✅توانایی عمومی: 🔹انجام کار گروهی 🔹استفاده روان از متون انگلیسی تخصصی مرتبط 🔹دارای پشتکار ،پیگیر و توانایی پیشبرد اهداف سازمانی 🔹آشنایی کلی با مفاهیم خدمات فناوری اطلاعات 🔹۵سال سابقه کار مفید مرتبط همراه با رزومه مناسب 🔈قرارداد همکاری به صورت پاره وقت و پروژه محورتنظیم خواهد شد. 📣ارسال رزومه به [email protected] 🔘خواهشمند است، رزومه خود را با عنوان کارشناس زیر ساخت ارسال بفرمایید. ➖➖➖➖➖➖➖➖➖➖ 🔗کارشناس #زیر_ساخت #استخدام #پاره_وقت #mcitp #vm #vmware #sys_admin
📌استخدام کارشناس داده‌کاوی 📌شرکت: هلدینگ مالی بانکی 📌محل کار: تهران ✅ تخصص مورد نیاز: 🔍تسلط به زبان برنامه نویسیPython 🔍تسلط به مفاهیم web/Social Media Scraping و توانایی و تجربه ساخت انواع Crawler با کتابخانه های پایتون 🔍آشنایی با مفاهیم داده‌های ساختار یافته و غیر ساختار یافته و نیز پایگاه داده‌های SQL و NoSQL 🔍آشنایی کافی با مفاهیم تحلیل کلان داده ،دسته‌بندی و خوشه‌بندی‌ داده‌ها،گراف‌کاوی و تحلیل شبکه‌ها 🔍آشنایی کافی با روش‌ها و ماژول‌های متن‌کا‌وی،پردازش‌ زبان طبیعی(NLP) و یادگیری ماشین 🔍آشنایی با سیستم عامل لینوکس، Docker و بازارهای مالی امتیاز محسوب می‌شود. 📍فارغ التحصیل رشته‌های فنی‌مهندسی(به ویژه مهندسی کامپیوتر )،علوم پایه،اقتصاد،آمار،مهندسی‌مالی و ریاضیات مالی 🔹حداقل دوسال سابقه کارمرتبط و اجرای حداقل یک پروژه مرتبط 🔹قرارداد همکاری به صورت پاره‌وقت و پروژه‌محورتنظیم خواهد شد. در صورت جلب نظرکارفرما امکان تبدیل به قرارداد تمام وقت نیز وجود دارد . 🔹فرآیند مصاحبه با افراد واجد شرایط، شامل آزمون فنی می‌شود. 🔹داشتن کارت پایان خدمت برای آقایان ضروری نیست. 🔹توانایی همکاری بلندمدت توانایی حل مساله ،علاقمند به کار تیمی،باانگیزه و اخلاق مدار،خلاق و نوآور،دقیق و منظم،پیگیر و متعهد 📣ارسال رزومه به : [email protected] 🔘خواهشمند است رزومه خود را با عنوان کارشناس داده‌کاوی ارسال بفرمایید. ➖➖➖➖➖➖➖➖➖➖➖ 🔗کارشناس #داده_‌کاوی #استخدام #پاره_وقت #متن_کاوی #پایتون #scraping
- بیزینس دیزاینر کیست و چه کاری انجام میدهد؟‌ این روزها خیلی‌ها از من میپرسند که بیزینس دیزاینر کیست و چه کاری انجام می‌دهد؟ تفاوت او با سرویس دیزاینر و یا یو ایکس دیزاینر چیست؟‌ من در این یادداشت سعی کردم که خیلی ساده توضیح بدهم که من به عنوان بیزینس دیزاینر چه کاری انجام میدهم:‌ بیزینس دیزاین شاید یک شغل خیلی جدید نباشد. درواقع بیزینس دیزاین ترکیبی از مهارت‌هایی است که شاید در حال حاضر نیز به صورت پراکنده و جزیره‌ای توسط افراد مختلف در یک شرکت انجام می‌شود. اما در بازار رقابتی امروز که نیاز به نوآوری و ورود به بازارهای جدید به یک امر ضروری تبدیل شده و شرکت‌ها نیاز دارند تا دائما محصولات و خدمات خود را بازطراحی و یا نوآفرینی کنند،‌ نقش بیزینس دیزاین پررنگ‌تر از گذشته و به صورت فرآیندی منسجم از فعالیت‌ها و مهارت‌های مختلف نمود پیدا می‌کند. - بیزینس دیزاین چیست؟ بیزینس دیزاین به معنای به کارگیری رویکردی انسان-محور به نوآوری در کسب‌و‌کار است. درواقع بیزینس دیزاینر از متودها و ابزارهای تفکر دیزاین برای کمک به شرکت‌ها‌ به منظور طراحی ارزش پیشنهادی جدید و ساخت مزیت رقابتی پایدار کمک می‌کند. بیزینس دیزاین ترکیبی از درک عمیق و همدردی با کاربر، شناخت بازار کسب‌وکار و طراحی تجربه مشتری و تدوین استراتژی های کسب‌و‌کاری متناسب با آن است. - بیزینس دیزاینر چه کاری انجام می‌دهد؟ بیزینس دیزاینر معمولا فردی خارج از شرکت‌ است که برای کمک به طراحی مزیت رقابتی، ورود به بازار جدید و یا طراحی محصول/ سرویس جدید به کمک مدیران شرکت‌ها می‌آید. و تمام فرآیند از شناسایی فرصت‌های موجود، طراحی ایده و کمک به لانچ ایده در بازار کارفرما را همراهی می‌کند. - یوزر ریسرچ و مطالعه بازار یکی از مهمترین بخش‌های کاری بیزینس دیزاینر، شناخت بازار و مخاطبان هدف است. این بخش مانند تحقیقات بازار سنتی خیلی با آمارها و ارقام و ترندهای بازار کار ندارد بلکه بیشتر سعی میکند بفهمد که بازار به چطور در حال تغییر شکل است، کاربران چطور رفتارهای جدیدی را از خود نشان می‌دهند، تکنولوژی‌های جدید چطور ممکن است روی نیاز و رفتار مخاطبان تاثیرگذار باشد و در واقع سعی در پیش‌بینی آینده و سناریوهای محتمل دارد. سناریوهایی که نه تنها شکل بازار به طور کلی را پیش بینی می‌کند بلکه رابطه بین بازیگران اصلی بازار، کاربران و مصرف کنندگان و الگوهای رفتاری آنان را پیش بینی و مطالعه می‌کند. هدف اصلی در این مرحله کشف فرصت‌های جدید برای خلق محصول/سرویس و یا حتی طراحی مدلهای جدید ارتباطی با مخاطبان برای اثرگذاری بیشتر و ایجاد تمایز پایدار در مقایسه با رقبا است. - طراحی مدل کسب‌وکار /مفهوم ارزش پیشنهادی از میان دیکرشن‌هایی که در مرحله قبل به آن رسیده‌ایم سعی میکنیم که یک یا دو کانسپت را بیشتر پرورش دهیم و آن را عینی‌تر کنیم. یکی از روش‌ها بسته به نوع پروژه، طراحی مدل کسب‌وکاری جدید می‌تواند باشد. لازم است ببینیم که کانسپ‌های طراحی شده را چطور می‌توان در قالب یک کسب‌وکار تعریف کرد. البته همیشه هم خروجی این بخش یک مدل کسب‌وکار جدید نیست. بلکه ممکن است کانسپت را در قالب یک ابزار تکمیلی کنار کسب‌وکار اصلی تعریف کنیم. برای مثال ابزاری برای جذب مشتریان بالقوه (lead generation tool) که در کنار محصول اصلی کانال جذابی برای جذب کاربر در اختیارمان قرار دهد. یا حتی استراتژی برند و بازاریابی به عنوان خروجی این بخش ممکن است تعریف شود. همه اینها براساس نوع پروژه و هدفی که به دنبال آن هستیم می‌تواند متغیر باشد. در کنار طراحی کانسپت‌ها، بیزینس دیزاینر تلاش می‌کند تا با تیم‌های دیگر چشم‌انداز کانسپت طراحی شده را به اشتراک بگذارد، ذینفعان اصلی را با سناریوهای پیشنهادی آشنا کند، استراتژی‌ها و فرآیندهای لازم برای پیاده سازی ایده را آماده کند و آموزش‌های لازم برای اجرایی شدن آنها را در اختیار تیم‌های مرتبط بگذارد. - طراحی پروتوتایپ و تست آن در بازار پس از آنکه خروجی کار را تعریف کردیم لازم است تا نمونه اولیه‌ای از آن را بسازیم تا بتوانیم هرچه سریعتر آن را در فضای واقعی تست کنیم. اگر ایده یک مدل محصول جدید باشد در قالب یک پروتوتایپ ساده که حداقل ویژگی‌های ضروری را دارد طراحی می‌‌شود و در مرحله فیدبک جمع کوچکی از مخاطبان مثلا ۵۰۰ نفره را دریافت میکنیم و براساس فیدبکها مدل کسب‌وکاری و یا ایده اصلی را اصلاح می‌کنیم. مرحله طراحی و تست پروتوتایپ معمولا بازه‌ای دوماهه است که در نهایت با جمع بندی نظرات و عملکرد ارزیابی شده میتوان به جمع بندی نهایی دست پیدا کرد و فاز عملیاتی اصلی ایده شروع خواهد شد. 👈 لینک اصلی مطلب @oldfashioned7
📌استخدام کارشناس برنامه‌نویس 📌شرکت: هلدینگ مالی بانکی 📌 محل کار: تهران ✅مهارت و تخصص‌های مورد نیاز: 🔺تسلط به Net Core. و Net Framework. 🔺تجربه کار با Angular 🔺تسلط به مفاهیم مدلسازی و طراحی بانک‌های اطلاعاتی 🔺تسلط به مفاهیمJquery وCSS و هم‌چنینMVC 🔺 تسلط کامل به زبان SQL و پیاده‌سازی بانک‌های اطلاعاتی با استفاده از Microsoft Sql server و اوراکل 🔺آشنایی به کار با دیتابیس‌هایSQL/NoSQL 🔺 تسلط بر تحلیل و طراحی و ابزار مرتبط 🔺تجربه طراحی دیتابیس با تراکنش‌های بالا 🔺تسلط به ابزار‌های مانیتورینگ دیتابیس و آشنایی با Replication 🔺آشنایی با Git/TFS 🔺آشنایی با Swarm و Docker 🔺آشنایی با مفاهیم BI و ابزارهای موجود در این ارتباط ✅توانایی عمومی: 🔹انجام کار گروهی 🔹توانایی استفاده روان از متون انگلیسی تخصصی مرتبط 🔹حداقل مدرک کارشناسی در یکی از رشته‌های مرتبط با فناوری اطلاعات 🔹برخورداری از دانش و تجربه کافی در زمینه برنامه‌نویسی و ‌طراحی شئ‌گرا 🔹آشنایی کافی با مفاهیم معماری نرم‌افزار و معماری‌های چند لایه و توزیع شده 🔹شناخت فرایند مهندسی نرم‌افزار 🔹آشنایی با مفاهیم RUP و متدلوژی‌های Agile 🔹 کمک به مدیریت پروژه در برنامه‌ریزی پروژه 🔹آشنایی با دست‌کم یکی از مدل‌های ارزیابی فرایند 🔹۳سال سابقه کار مفید 🔈قرارداد همکاری به صورت پاره وقت و پروژه محورتنظیم خواهد شد. 📣ارسال رزومه به [email protected] 🔘خواهشمند است، رزومه خود را با عنوان کارشناس برنامه‌نویس ارسال بفرمایید. ➖➖➖➖➖➖➖➖➖➖ 🔗کارشناس #برنامه_نویس #استخدام #پاره_وقت #dot_Net_core #dot_Net_framework #MVC #HTML #CSS #angular #JQuery #SQL #NOSQL #Git #Docker #BI
📌استخدام کارشناس DBA 📌شرکت: هلدینگ مالی بانکی 📌 محل کار: تهران ✅مهارت و تخصص‌های مورد نیاز: 🔺حداقل تجربه ۳سال کار با پایگاه‌داده‌های اوراکل وMicrosoft Sql server 🔺تسلط به oracle RMAN 🔺آشنایی با OEM 🔺تجربه عملیاتی راهکار HA نظیر RAC، Data Guard و.... 🔺تجربه عملیاتیCluster 🔺تجربه راه‌اندازی راهکار‌های Restore/Backupوراکل 🔺تجربه مناسب در زمینه طراحی، مانیتورینگ پایگاه داده‌ها و سیستم عامل 🔺 تجربه در VLDB وvery high volume of transactions 🔺مسلط به نگهداری و بازیابی اطلاعات دیتابیس(Backup, Restore, Disaster recovery) 🔺مسلط به ایجادMaintenance plan جهت اجرای روتین‌های نگهداری دیتابیس 🔺توانایی بهینه‌سازی پایگاه داده‌ها(Tuning & Optimization) 🔺آشنایی با پایگاه داده‌های NOSQL ✅توانایی عمومی: 🔹انجام کار گروهی 🔹استفاده روان از متون انگلیسی تخصصی مرتبط 🔹دارای پشتکار ،پیگیر و توانایی پیشبرد اهداف سازمانی 🔹آشنایی کلی با مفاهیم خدمات فناوری اطلاعات 🔹۵سال سابقه کار مفید مرتبط همراه با رزومه مناسب 🔹امکان پاسخگویی تلفنی در ساعات غیر اداری در صورت لزوم 🔈قرارداد همکاری به صورت پاره وقت و پروژه محورتنظیم خواهد شد. 📣ارسال رزومه به [email protected] 🔘خواهشمند است، رزومه خود را با عنوان کارشناس DBA ارسال بفرمایید. ➖➖➖➖➖➖➖➖➖➖ 🔗کارشناس #DBA #استخدام #پاره_وقت #Oracle #NOSQL #optimization #VLDB
16 منبع آموزشی الگوریتمهای هوش مصنوعی〰️〰️〰️ ♾ 1. Speech and Language Processing by Dan Jurafsky and James Martin 🔊 2. Deep Learning for Natural Language Processing by Richard Socher (Stanford University) 🔔 3. Natural Language Processing (NLP) by Microsoft 🔸 4. Andrew Ng’s course on Machine Learning 🔸 5. The video lectures and resources for Stanford’s Natural Language Processing with Deep Learning 🔰 Part 2 🔹6. Sequence Models for Time Series and Natural Language Processing 🔺 7. Deep Natural Language Processing course offered in Hilary Term 2017 at the University of Oxford. 🔺 8. Natural Language Processing Fundamentals in Python by Datacamp 🔺 9 Natural Language Processing by Higher School of Economics 🔸 10 How to Build a Chatbot Without Coding by IBM 🔸 11. CS 388: Natural Language Processing by University of Texas 🔸 12. Natural Language Processing with Python ⚡️ 13. CSEP 517: Natural Language Processing by University of Washington 🔰 14. Dan Jurafsky & Chris Manning: Natural Language Processing 📘 15. NATURAL LANGUAGE PROCESSING by Carnegie Mellon University 📘 16. CS224n: Natural Language Processing with Deep Learning by Stanford University #منابع #یادگیری_ماشین #فیلم #کلاس_آموزشی #الگوریتمها #پردازش_زبان_طبیعی #هوش_مصنوعی #یادگیری_عمیق join👇👇👇 ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
🌀📣 اطلاع رسانی مهم دوستان سلام. به تازگی پست هایی منتشر می شود که موقعیت های دکتری و پست دکتری در اروپا و آمریکا را نشان می دهند و درخواست رزومه می کنند. ⛔️ لطفا به همه آنها اعتماد نکنید و تا زمانی که از صحت آگهی مطمئن نشدید از ارسال رزومه، پول و غیره خودداری کنید. اخیرا برای چندمین بار فردی در جامعه علمی اروپا خبرساز شده است که با ساختن یک سایت دانشگاه با نام جعلی، ایجاد رزومه برای خود و ثبت مقالات دیگران به نام خود در ریسرچ گیت و نشان دادن رزومه علمی ساختگی و حتی بازگشایی دفتر و شرکت از بسیاری کلاهبرداری کرده است. آنها علاوه بر سعی در دریافت پول، رزومه شما را به بنگاه های کاریابی و وبینارها و غیره می فروشند و موقعیت اعلامی کاملا جعلی است. در زمانی که به علت کرونا و ممنوعیت سفر برخی کشورها، حتی افراد ساکن هم امکان تردد ندارند موقعیت دکتری را تبلیغ می کنند!! 😳 این در حالی است که شما سایت جعلی دانشگاه را می بینید، صفحه شخصی استاد جعلی را می ببینید، در بانک های اطلاعاتی علمی فهرست مقالات جعلی ایشان موجود است و ... ℹ️ این پست صرفا جهت آگاهی به مخاطبان عزیز منتشر شده و امیدوارم دوستان متخصص با توجه به پیچیدگی این نوع کلاهبرداری جدید، دقت لازم را داشته باشند. لطفا دقت بفرمایید: ۱- این پیام شامل افراد یا شرکت های فعال سالم در این حوزه نمی شود گرچه تشخیص آنها سخت شده است. ۲- این کانال در این ارتباط هیچ فعالیتی ندارد و از ارسال سوال یا درخواست برای ادامه تحصیل جدا خودداری کنید. صرفا جهت اطلاع رسانی و هشدار به همراهان گرامی کانال بود. 🤳لطفا این پیام را هم رسانی کنید تا دوستانتان مطلع شوند و دقت کنند. @IASE_ISLP ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
✔️ فردیت ما چطور میتواند به کسب‌وکارمان تبدیل شود؟‌ در پست اول در این رابطه صحبت کردیم که چطور به جای آنکه زمانمان را بفروشیم، محصول بفروشیم. محصول هم مثل زمان‌های قدیم به معنای یک محصول فیزیکی نیست. محصول میتواند انواع مختلف داشته باشد. حتی محصول میتواند خود شما باشید . شاید بپرسید یعنی چه که محصول خود ما باشیم؟ خود شما، یعنی فردیت، جهان‌بینی، علایق، سلیقه، دانش و تجربیات شما می‌تواند به محصول تبدیل شود. مثال خیلی ساده آن، شخصی که سلیقه خوبی در موسیقی دارد، عاشق این است که ساعت‌های زیادی را در اسپاتیفای بچرخد و هنرمند جدیدی را کشف کند و یا در رابطه با گروه‌های موسیقی و سبک‌های موسیقی مختلف تحقیق کند. این فرد، سلیقه و به قول خارجی‌ها Taste خودش در موسیقی را می‌تواند به محصولی تبدیل کند و آن را بفروشد. یا مثلا یکی از پردرآمدترین خبرنامه‌های هفتگی به نام The browserاست که بیشتر از پنجاه هزار عضو دارد که ماهانه ۵ دلار برای خواندن مطالبش پرداخت می‌کنند. این آقا کارش این است که روزانه بالای ۱۰۰۰ مطلب در اینترنت را میخواند و از این بین تعداد انگشت‌شماری که به نظرش جالب هستند را جمع‌اوری میکند و یادداشت کوتاهی را هم در رابطه با هرکدام مینویسد و برای اعضای خبرنامه‌اش میفرستد. درواقع او همان محتوای مجانی روی وب را به اعضای خبرنامه‌اش میفروشد و ماهانه درآمدی در حدود ۲۵۰ هزار دلار دارد. او هم جزو کسانی است که کنجکاوی و زاویه دید مخصوص به خودش را میفروشد. شروع و رشد passion economy دنیا شاید برای اولین بار است که به ما آدمها اجازه می‌دهد که از فردیت خودمان پول زیادی بسازیم. بدون آنکه نیاز باشد در قالب یک شرکت و یا یک مجموعه حقوقی فعالیت کنیم.. در نتیجه این تغییرات اقتصاد جدیدی به نام Passion economy شکل گرفته است. اقتصادی که تمرکزش روی هموار کردن مسیر افرادی است که دوست دارند علاقه و فردیت منحصر به فردشان را تبدیل به راه درآمدی خود کنند. یکی از قشنگ‌ترین مثال‌هایی که در این چند وقت با آن برخورد داشتم، شخصی است که یک دوره آموزشی آنلاین تهیه کرده که موضوعش این است: شما چطور می‌توانید یک ماشین گران‌قیمت را بخرید، یک سال سوارش بشید و بعد از آن با قیمت خوبی ماشین را بفروشید! این فرد در سال بیش از ۶ میلیون دلار از فروش این دوره آنلاین درآمد دارد. این مثال را زدم تا بهتر بتوانم توضیح دهم که درآمدزایی از فردیت و یا اینکه توانمندی‌های خود را به محصول تبدیل کردن چه طور کار میکند. برای این کار لازم است که بتوانید کنجکاوی و دانش خود را در موضوع خیلی خاصی متمرکز کنید. روی آن موضوع حسابی تحقیق و تجربه کنید و از اول این فرآیند به صورت عمومی در رابطه با مسیر خودتان تولید محتوا کنید. این تولید محتوا امروز از روش‌های متعددی میتواند انجام شود. بلاگ پست نوشتن، پادکست ساختن، ویدیو ساختن، توییت کردن، فعالیت در اینستاگرام و یا تیک‌تاک. هرکدام از این پلتفرم‌ها بسته به فرم خود برای انواع خاصی از موضوعات می‌تواند موثر باشد. به اشخاصی که میتوانند خودشان را به محصول تبدیل کنند به صورت کلی، creator گفته می‌شود. کریتورها، کارآفرین‌هایی هستند که به صورت شخصی کار میکنند. درواقع میتوانیم اینطور این روند را تشریح کنیم: فرض بگیریم که در دنیای قدیم فقط شرکت‌ها و سازمان‌های بزرگ فعال بودند و بسیاری از زیرساخت‌های فنی مثل نرم‌افزارهای مدیریت ارتباط با مشتری، نرم‌افزارهای حسابداری و… برای کمک به این سازمان‌های بزرگ طراحی میشد. در موج بعدی استارتاپ‌ها که شرکت‌های کوچک‌تر و چابک‌تری بودند به وجود آمدند که میتوانستند با بهره‌گیری از تکنولوژی با تعداد افراد کمتری درآمد‌های قابل توجهی بسازند و بسیاری از شرکت‌ها هم برای کمک به این استارتاپ‌ها به وجود امدند تا زیرساخت‌های لازم را متناسب با نیازشان در اختیار انها قرار دهند. مثل ابزارهای مدیریت پروژه تیمی، مدیریت حسابداری سبک‌تر و ارزان‌تر و … در حال حاضر هم این افراد هستند که می‌توانند با استفاده از قدرت اینترنت و شبکه‌های اجتماعی به تنهایی درآمدهایی به اندازه شرکت ها تولید کنند و امروز شاهد این هستیم که ابزارهای بسیاری برای کمک به این افراد در حال شکل‌گیری است. ابزارهایی که کمک میکند تا این افراد بدون درگیر شدن با تکنولوژی و یادگیری فنی بتوانند محصولاتشان را بفروشند و درآمدزایی کنند و این کسب‌وکار تک نفره را اداره کنند. این همان اقتصاد passion economy است که از شروع کرونا اندازه بازارش ۵ برابر شده است. با سرعت بالایی در حال رشد است و تعداد کریتورها و همچنین ابزارهایی که به کریتورها اجازه میدهد تا بتوانند کسب‌وکارشان را شروع کنند روز به روز بیشتر و بیشتر میشوند. @shahrzadinHK @oldfashioned7
یکی از بیشترین سوالاتی که پرسیده میشه اینه که از کجا و چطور باید شروع کنم (یادگیری عمیق) توی این پست می‌خوام به این سوال پاسخ بدم (تاریخ : ۱۴ آذر ۱۳۹۹) افرادی که این سوال رو می‌کنند معمولاً دو دسته هستند اونهایی که آکادمیک بصورت خیلی جدی دنبال کردند و تئوری قضیه رو بلدند و اونهایی که هیچ دیدی از تئوری ندارند و بخاطر ترند بودن وارد میشوند. چندتا فرض : ۱- لینوکس و پایتون رو بلد هستید (پایتون سطح متوسط و لینوکس همون LPIC 1 هم کفایت می‌کنه) ۲- با خوندن کتاب مشکلی ندارید ۳- قرار هست کلا بیخیال یادگیری به زبان فارسی بشید این لیست کتابهایی هست که پیشنهاد می‌کنم : 1- The hundred-page machine learning (Andriy Burkov) این کتاب برای کسایی هست که یادگیری ماشین رو خیلی خیلی کم میشناسند، قبل از این که بخواید وارد بشید لازمه اول مطمئن بشید همون چیزی هست که فکرشو می‌کردید. 2- Hands on ML with scikit-learn, keras, tensorflow (2nd edition) (Aurelien Geron) نیازی به تعریف نداره بهترین کتاب برای شروع کد زدن بدون ریاضیات پیچیده، بهمراه تئوری کافی. اینجا مرحله‌ای هست که دانشگاهی و آموزشگاهی و ... و خیلی از افرادی که دارند کار می‌کنند (حدود ۹۵٪) میزنن جاده خاکی یا درحال پیاده‌سازی ایده‌ها و روش‌های مختلف هستند یا درحال خوندن مقالات روز دنیا، اینکه شما چقدر تسلط دارید و چقدر عالی مدل‌هارو ایجاد می‌کنید ی بحث هست اما اینکه آیا واقعاً این مدل می‌تونه به تمام مشتریان شما در زمان مناسب پاسخ بده و .... بحث مهمتری هست. 3- Build Machine Learning Powered Application : Going from idea to product (Emmanuel Ameisen) برای شروع کتاب خوبی هست، البته مطالبی که توی کتابهای قبلی خوندید رو می‌تونید فقط نگاهی بندازید. 4- Machine Learning Engineering (Andriy Burkov) مباحث مربوط به سرویس دهی و ... از یک جایی به بعد نیاز به ML engineer داره اما لازمه شما با این مباحث آشنایی کامل داشته باشید مخصوصاً اگر قراره پروژه خودتون رو راه بندازید. 5- Building Machine Learning Pipelines : Automating Model Life Cycle with Tensorflow (Hannes Hapke) این بخش خیلی خیلی مهمه، قرار نیست تا ابد هر چندوقت یکبار بشینید و بصورت دستی دیتا جدید رو ترین کنید و همه مراحل رو پیش بگیرید باید از data pipeline ها استفاده کنید (چیزی که خیلی خیلی کم دیده می‌شه) 6- TinyML : Machine Learning with Tensorflow Lite on Arduino and Ultra-Low-Power Microcontrollers (Pete Warden) شاید هیچ وقت لازم نشه روی این سخت‌افزارها سرویس دهنده باشید، اما چیزهایی که توی این کتاب قرار هست یاد بگیرید واقعاً واجب هست. 7- Practical Deep Learning for Cloud, Mobile, and Edge : .... (Anirudh Koul) تا اینجا بصورتی بود که خسته کننده نباشه و کدینگ و ... هم پیش بره اما کم کم باید وارد مباحث تئوری و ریاضیات هم شد. 8- d2l.ai بخش تئوری این کتاب شامل کلی tips and tricks می‌شه که جالب هستند. 9- deeplearningbook.org همه‌ی تئوری‌ها و ریاضیاتی که پیچوندید رو باید بالاخره یاد بگیرید :) امیدوارم این لیست مفید باشه، سعی کردم کتابهایی که خوب هستند یا خودم خوندم و نتیجه گرفتم رو فقط معرفی کنم وگرنه این لیست ادامه دار بود. امیدوارم مفید باشه 🌹 #چطور_شروع_کنیم
📌عنوان تخصص: طراح گرافیک 📌شرکت: هولدینگ مالی بانکی 📌محل کار: تهران 📗توانايي‌های عمومی مورد نياز: 🔺توانايی کار گروهی 🔺دارای پشتکار، پیگیر و توانایی پیشبرد اهداف سازمانی 🔺آشنایی کلی با مفاهیم خدمات فناوری اطلاعات 🔺3 سال سابقه کار مفید مرتبط همراه با رزومه مناسب 🔺امکان پاسخگویی تلفنی در ساعات غیر اداری در صورت لزوم 🔺توانايي‌های تخصصي مورد نياز: 🔺تسلط به Photoshop 🔺 تسلط به Illustrator 🔺دارای ذوق هنری و خلاقیت در طراحی 🔺آشنایی با اصول گرافیک و مبانی هنرهای تجسمی، رنگ‌شناسی، تایپوگرافی، تصویرسازی و صفحه‌آرایی 🔺آشنایی با فضای مجازی و اصول طراحی در دیجیتال مارکتینگ 🔺طراحی حرفه‌ای پست های شبکه‌های اجتماعی و وب سایت 🔺سرعت‌ عمل مناسب همراه با دقت بالا 🔺آشنایی با After effects و InDesign امتیاز محسوب می شود. 🟢توضیحات مهم: 🔺قرارداد همکاری به صورت پاره وقت و پروژه محور تنظیم خواهد شد. 🔺به جای اجراکار بودن، بر طراح بودن فرد تأکید وجود دارد. 🔺تسلط یا آشنایی با موشن گرافی امتیاز محسوب می شود. 🔺فقط رزومه هایی که نمونه کار به آن ها پیوست شده، بررسی خواهند شد. لطفاً رزومه شغلی خود را با عنوان «طراح گرافیک» به آدرس پست الکترونیکی زیر ارسال نمایید: [email protected]➖➖➖➖➖➖➖➖➖➖➖ #Illustrator #Photoshop #Graphics
📌عنوان تخصص: متخصص وردپرس و SEO 📌شرکت: هولدینگ مالی بانکی 📌محل کار: تهران 📗توانايي‌های تخصصي مورد نياز: 🔺تسلط کامل به SEO فنی یا ON-PAGE 🔺تسلط بر مفاهیم SEO در حوزه محتوا و تکنیک ها و امکانات گوگل 🔺 تسلط کامل به وردپرس و تمامی پلاگین های مهم (از جمله Visual Composer ، Slider Revolution و ...) 🔺توانمند به تغییر و اختصاصی کردن قالب های وردپرس 🔺تسلط کامل به افزونه های امنیتی وردپرس 🔺تسلط به روش ها و اصول بهبود امنیت وردپرس 🔺توانایی ایجاد تغییر و عیب‌یابی کدهای قالب‌ و افزونه‌ها 🔺سابقه کار با CPanel و Direct Admin 🔺تسلط یا آشنایی کافی به CSS ، HTML، JS ، PHP و MYSQL 🔺توانایی حل مساله، پذیرش چالش ها و ارائه راه حل 🟢توضیحات مهم: 🔺قرارداد همکاری به صورت پاره وقت و پروژه محور تنظیم خواهد شد. 🔺آشنایی با فتوشاپ، طراحی و ... امتیاز محسوب می شود. لطفاً رزومه شغلی خود را با عنوان «متخصص وردپرس و سئو» به آدرس پست الکترونیکی زیر ارسال نمایید: [email protected] ➖➖➖➖➖➖➖➖➖➖➖ #WordPress #SEO
Scientific Data Analysis Team (SDAT) intends to organize the first event on the value of data to provide data holders and data analyzers with an opportunity to extract maximum value from their data. This event is supported by International Statistical Institute (ISI) and SDAT and hosted at the Bu-Ali Sina University, Hamedan, Iran. Organizers and the data providers will provide more information about the goals of the initial ideas, team arrangement, competition processes, and the benefits of attending this event on a webinar hosted at the ISI Gotowebianr system. Everyone invites to participate in this webinar for free, but it is needed to register at the webinar system by 30 December 2020. Event Time: 31 December 2020 - 13:30-16:30 Central European Time (CET) Register for the webinar: https://register.gotowebinar.com/register/8913834636664974352 More details about this event: http://sdat.ir/en/playdata Aims and outputs: • Playing with real data by explorative and predictive data analysis techniques • A platform between a limited number of data providers and hundreds to thousands of data scientist Teams • Improving creativity and scientific reasoning of data scientist and statisticians • Finding the possible “bugs” with the current data analysis methods and new developments • Learn different views about a dataset. AWARD-WINNING: The best-report awards consist of a cash prize: $400 for first place, $200 for second place, and $100 for third place. Important Dates: Event Webinar: 31 December 2020 - 13:30-16:30 Central European Time (CET). Team Arrangement: 01 Jan. 2021 - 07 Jan. 2021 Competition: 10 Jan. 2021 - 15 Jan. 2021 First Assessment Result: 25 Jan. 2021 Selected Teams Webinar: 30 Jan. 2021 Award Ceremony: 31 Jan. 2021
یکی از بیشترین سوالاتی که پرسیده میشه اینه که از کجا و چطور باید شروع کنم (یادگیری عمیق) توی این پست می‌خوام به این سوال پاسخ بدم (تاریخ : ۱۴ آذر ۱۳۹۹) افرادی که این سوال رو می‌کنند معمولاً دو دسته هستند اونهایی که آکادمیک بصورت خیلی جدی دنبال کردند و تئوری قضیه رو بلدند و اونهایی که هیچ دیدی از تئوری ندارند و بخاطر ترند بودن وارد میشوند. چندتا فرض : ۱- لینوکس و پایتون رو بلد هستید (پایتون سطح متوسط و لینوکس همون LPIC 1 هم کفایت می‌کنه) ۲- با خوندن کتاب مشکلی ندارید ۳- قرار هست کلا بیخیال یادگیری به زبان فارسی بشید این لیست کتابهایی هست که پیشنهاد می‌کنم : 1- The hundred-page machine learning (Andriy Burkov) این کتاب برای کسایی هست که یادگیری ماشین رو خیلی خیلی کم میشناسند، قبل از این که بخواید وارد بشید لازمه اول مطمئن بشید همون چیزی هست که فکرشو می‌کردید. 2- Hands on ML with scikit-learn, keras, tensorflow (2nd edition) (Aurelien Geron) نیازی به تعریف نداره بهترین کتاب برای شروع کد زدن بدون ریاضیات پیچیده، بهمراه تئوری کافی. اینجا مرحله‌ای هست که دانشگاهی و آموزشگاهی و ... و خیلی از افرادی که دارند کار می‌کنند (حدود ۹۵٪) میزنن جاده خاکی یا درحال پیاده‌سازی ایده‌ها و روش‌های مختلف هستند یا درحال خوندن مقالات روز دنیا، اینکه شما چقدر تسلط دارید و چقدر عالی مدل‌هارو ایجاد می‌کنید ی بحث هست اما اینکه آیا واقعاً این مدل می‌تونه به تمام مشتریان شما در زمان مناسب پاسخ بده و .... بحث مهمتری هست. 3- Build Machine Learning Powered Application : Going from idea to product (Emmanuel Ameisen) برای شروع کتاب خوبی هست، البته مطالبی که توی کتابهای قبلی خوندید رو می‌تونید فقط نگاهی بندازید. 4- Machine Learning Engineering (Andriy Burkov) مباحث مربوط به سرویس دهی و ... از یک جایی به بعد نیاز به ML engineer داره اما لازمه شما با این مباحث آشنایی کامل داشته باشید مخصوصاً اگر قراره پروژه خودتون رو راه بندازید. 5- Building Machine Learning Pipelines : Automating Model Life Cycle with Tensorflow (Hannes Hapke) این بخش خیلی خیلی مهمه، قرار نیست تا ابد هر چندوقت یکبار بشینید و بصورت دستی دیتا جدید رو ترین کنید و همه مراحل رو پیش بگیرید باید از data pipeline ها استفاده کنید (چیزی که خیلی خیلی کم دیده می‌شه) 6- TinyML : Machine Learning with Tensorflow Lite on Arduino and Ultra-Low-Power Microcontrollers (Pete Warden) شاید هیچ وقت لازم نشه روی این سخت‌افزارها سرویس دهنده باشید، اما چیزهایی که توی این کتاب قرار هست یاد بگیرید واقعاً واجب هست. 7- Practical Deep Learning for Cloud, Mobile, and Edge : .... (Anirudh Koul) تا اینجا بصورتی بود که خسته کننده نباشه و کدینگ و ... هم پیش بره اما کم کم باید وارد مباحث تئوری و ریاضیات هم شد. 8- d2l.ai بخش تئوری این کتاب شامل کلی tips and tricks می‌شه که جالب هستند. 9- deeplearningbook.org همه‌ی تئوری‌ها و ریاضیاتی که پیچوندید رو باید بالاخره یاد بگیرید :) امیدوارم این لیست مفید باشه، سعی کردم کتابهایی که خوب هستند یا خودم خوندم و نتیجه گرفتم رو فقط معرفی کنم وگرنه این لیست ادامه دار بود. امیدوارم مفید باشه 🌹 #چطور_شروع_کنیم
چند مورد از آموزش های مفید و گام به گام کانال #یادگیری_ماشین #هوش_مصنوعی #یادگیری_عمیق #پردازش_زبان_طبیعی #شبکه_عصبی #منابع #دکترـرضوی #فیلم #مقاله جستجوی مورد نظر خودرا باهشتگ های معرفی شده به مطلب موردنظر برسید 📣 مروری کلی بر مفاهیم علم داده و یادگیری عمیق و یادگیری ماشین 📣 آموزش گام به گام یادگیری ماشین 📣 آموزش گام به گام پردازش زبان طبیعی 📣 آموزش گام به گام یادگیری عمیق 📣 گام به گام آموزش یادگیری هوش مصنوعی 📣 فیلم آموزشی « شبکه های عصبی برای یادگیری ماشین » از پروفسور جفری هینتون 📣 آموزش گام به گام یادگیری هوش مصنوعی با کلاس های آموزشی دکتر رضوی 📣 فیلم آموزشی «چطور از بین همه مدلهای یادگیری ماشین مدل مناسبی انتخاب کنیم؟» 📣 فیلم آموزش گام به گام یادگیری ماشین با کلاس های آموزشی دکتر رضوی 📣 فیلم های آموزشی یادگیری ماشین از کنفرانس ها و سخنرانیهای مطرح 📣 منابع و کتاب های معرفی شده برای هوش مصنوعی یادگیری ماشین و... 📣 آموزش گام به گام یادگیری عمیق با کلاس های آموزشی دکتر رضوی و بسیاری از مطالب کاربردی دیگر که فقط با یک نگاه کافی نیست... ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
📌عنوان تخصص: کارشناس شبکه و IT 📌شرکت: هولدینگ مالی بانکی 📌محل کار: تهران 📗توانايي‌های عمومی مورد نياز: 🔺توانايی کار گروهی 🔺دارای پشتکار، پیگیر و توانایی پیشبرد اهداف سازمانی 🔺آشنایی کلی با مفاهیم مالی و سرمایه‌گذاری 🔺3حداقل سال سابقه کار مفید مرتبط همراه با رزومه مناسب 🔺امکان پاسخگویی تلفنی در ساعات غیر اداری در صورت لزوم 📚توانايي‌های تخصصي مورد نياز: 🔺تسلط به سخت افزار كامپیوتر, پرینتر و ویندوز کلاینت 🔺تسلط به سرور های Microsoft 🔺تسلط به نرم افزارهای بكاپ گیری 🔺تسلط به آنتی ویروس تحت شبکه 🔺تسلط با مجازی سازی VMware 🔺تسلط بر محصولات NGFW و UTMها و راه کارهای Endpoint Protection 🔺آشنایی با سوئیچ های سیسکو در حد CCNA 🔺آشنایی با راهبری فایروال 📣توضیحات مهم: 🟢قرارداد همکاری به صورت پاره وقت تنظیم خواهد شد. 🟢حضور در شرکت، یک روز در هفته الزامیست. لطفاً رزومه شغلی خود را با عنوان «کارشناس شبکه و IT» به آدرس پست الکترونیکی زیر ارسال نمایید: [email protected]
16 منبع آموزشی الگوریتمهای هوش مصنوعی〰️〰️〰️ ♾ 1. Speech and Language Processing by Dan Jurafsky and James Martin 🔊 2. Deep Learning for Natural Language Processing by Richard Socher (Stanford University) 🔔 3. Natural Language Processing (NLP) by Microsoft 🔸 4. Andrew Ng’s course on Machine Learning 🔸 5. The video lectures and resources for Stanford’s Natural Language Processing with Deep Learning 🔰 Part 2 🔹6. Sequence Models for Time Series and Natural Language Processing 🔺 7. Deep Natural Language Processing course offered in Hilary Term 2017 at the University of Oxford. 🔺 8. Natural Language Processing Fundamentals in Python by Datacamp 🔺 9 Natural Language Processing by Higher School of Economics 🔸 10 How to Build a Chatbot Without Coding by IBM 🔸 11. CS 388: Natural Language Processing by University of Texas 🔸 12. Natural Language Processing with Python ⚡️ 13. CSEP 517: Natural Language Processing by University of Washington 🔰 14. Dan Jurafsky & Chris Manning: Natural Language Processing 📘 15. NATURAL LANGUAGE PROCESSING by Carnegie Mellon University 📘 16. CS224n: Natural Language Processing with Deep Learning by Stanford University #منابع #یادگیری_ماشین #فیلم #کلاس_آموزشی #الگوریتمها #پردازش_زبان_طبیعی #هوش_مصنوعی #یادگیری_عمیق join👇👇👇 ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
📌عنوان تخصص: کارشناس وردپرس 📌شرکت: هولدینگ مالی بانکی 📌محل کار: تهران 📘توانايي‌های عمومی مورد نياز: 🔺توانايی کار گروهی 🔺دارای پشتکار، پیگیر و توانایی پیشبرد اهداف سازمانی 🔺آشنایی کلی با مفاهیم مالی و سرمایه گذاری 🔺حداقل ۳ سال سابقه کار مفید مرتبط همراه با رزومه مناسب 🔺امکان پاسخگویی تلفنی در ساعات غیر اداری در صورت لزوم 📚توانايي‌های تخصصي مورد نياز: 🔺تسلط کامل به وردپرس و تمامی پلاگین های مهم از جمله Visual Composer ، Slider Revolution و... 🔺توانمند به ایجاد تغییرات اساسی در کد و اختصاصی کردن قالب های وردپرس 🔺تسلط کامل به افزونه های امنیتی وردپرس و روش ها و اصول بهبود امنیت در وردپرس 🔺توانایی کامل در اضافه نمودن بخش جدید ،تغییر و عیب‌یابی کدهای قالب‌ و افزونه‌ها، و پیاده سازی افزونه های جدید در صورت نیاز 🔺تسلط بر محیط command line سیستم عامل لینوکس 🔺تسلط بر CSS ، HTML، JS ، PHP و MYSQL 🔺تسلط کامل به SEO فنی یا ON-PAGE 🔺توانایی حل مساله، پذیرش چالش ها و ارائه راه حل 📣توضیحات مهم: 🔴قرارداد همکاری به صورت پاره وقت تنظیم خواهد شد. 🔴آشنایی با مفاهیم SEO در حوزه محتوا و تکنیک ها امتیاز محسوب می شود. 🟢لطفاً رزومه شغلی خود را با عنوان «کارشناس وردپرس» به آدرس پست الکترونیکی زیر ارسال نمایید: [email protected]
Registration for International Data Analysis Olympiad(IDAO 2021) is open till March 12. It’s being organized by HSE University and Yandex for the 4th time. Otkritie bank will be our platinum partner this year. The Olympiad will be convened by leading experts in data analysis and aims to bring together analysts, scientists, professionals, and junior researchers. Participation is free. Winners and prize-winners of IDAO 2021 will receive valuable prizes. This year the online task is coming again from Physics. The task was given by the Laboratory of Methods for Big Data Analysis (LAMBDA, HSE University) together with CYGNO Collaboration (Italy). The registration is open till March 12, 2021. The Olympiad includes two stages: Online Stage (March 1-31): · Track 1: Traditional machine learning competition on Yandex.Contest platform. You will need to make new predictions and upload them to the automatic verification system. · Track 2: Come up with a solution for the same problem, keeping within a rigid framework of time and memory used. Final (April 17-18): · top 30 teams according to the Online Stage results will be invited to the Online final. · In the final 36 hours of the competition, participants will try not just to train the model, but to create a full-fledged prototype, which will be tested both in terms of accuracy and performance. Learn more: https://idao.world/ 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN ❇️ @AI_Python
📌عنوان تخصص: کارشناس تولید محتوا 📌شرکت: شرکت گروه مالی شهر 📌محل کار: تهران 🟢توانايي‌های عمومی مورد نياز: 🔺توانايی کار گروهی 🔺دارای پشتکار، پیگیر و توانایی پیشبرد اهداف سازمانی 🔺آشنایی کلی با مفاهیم مالی، بازار سرمایه و سرمایه گذاری 🔺5 سال سابقه کار مفید مرتبط همراه با رزومه مناسب 🔺امکان پاسخگویی تلفنی در ساعات غیراداری در صورت لزوم 🔺سرعت‌ عمل مناسب همراه با دقت بالا 🟢توانايي‌های تخصصي مورد نياز: 🔺آشنایی کامل با تدوین استراتژی تولید محتوا و بازاریابی 🔺آشنایی کامل با اصول گرافیک و مبانی رنگ‌شناسی، تصویرسازی و صفحه‌آرایی 🔺دارای ذوق هنری و خلاقیت در طراحی 🔺تسلط به نرم افزارهای Photoshop، Corel ، Premiere ، Illustrator و After Effect 🔺توانایی کامل طراحی پوستر، کاتالوگ و بروشور 🔺توانایی ساخت موشن گرافی و کلیپ های تبلیغاتی به همراه شخصیت پردازی و سناریونویسی 🔺آشنایی با اصول دیجیتال مارکتینگ و ایده پردازی محتوا 🔺آشنایی با وردپرس و اصول سئو محتوا 🔺تسلط کامل به تولید محتوا در شبکه‌های اجتماعی و وب سایت 📣توضیحات مهم: 📍قرارداد همکاری به صورت دورکاری و پروژه محور تنظیم خواهد شد. 📍به جای اجراکار بودن، بر طراح بودن فرد تأکید وجود دارد. 📍ارائه نمونه کار مزیت محسوب می شود. 📧لطفاً رزومه شغلی خود را با عنوان « کارشناس تولید محتوا» به آدرس پست الکترونیکی زیر ارسال نمایید: [email protected] ➖➖➖➖➖➖➖➖➖➖➖ #SEO #content_creator #photoshop
♨️💯شروع دوره تحلیل داده با پانداس در یوتیوب فارسی کتابخانه pandas یکی از کتابخانه های مطرح در حوزه علم داده هست که میتونه به شما در چهار مرحله یک پروژه مربوط به علم داده کمک کنه: 1⃣Reading data طبعا اولین قدم، خوندن داده ها و وارد کردن اونها به محیط پایتون هست. پانداس میتونه از قالب های مختلف مثل اکسل، csv و ... داده ها رو با یک خط دستور بخونه ‼️ 2⃣Data manipulation بعد از خواندن داده ها، نوبت به یک سری پیش پردازشها و دستکاری در داده هاست مثل تمیزسازی داده ها، حذف داده های پرت، حذف نمونه های با مقدار مفقود و ..، پانداس تو این قسمت هم خیلی راحت بهت کمک می‌کنه تا داده ها رو دستکاری کنی. 3⃣Data analysis تحلیل داده‌ها و استخراج اطلاعات مهم از داده مرحله مهمی هست و باید بتونید اطلاعات مهم رو استخراج کنید. پانداس کلی متد و نحوه فیلتراسیون داده ها رو داره که این فرایند رو ساده میکنه 4⃣Data visualization در نهایت هم معمولا خیلی وقت ها گزارشها به صورت نمودار یا شکل همراه هست که پانداس توی این قسمت هم به شما کمک می‌کنه فرایند ویژوالیزیشن داده ها رو راحت و بی دردسر انجام بدید. دوره آموزش تحلیل داده با پانداس به تازگی در کانال زیر استارت زده شده و میتونید هماهنگ با دوره پیش برید و در جلسات لایو پرسش و پاسخ پاسخ سوالاتتون رو هم بگیرید. #pandas #tutorial #آموزش https://youtube.com/playlist?list=PLuQlH6t3PaQEhdRj0QJlUYCKVRPG40DK9
✔️ استخدام برنامه نویس #استخدام #موقعیت_شغلی #کارجو #همکاری استخدام برنامه نویس Senior React Native Developer به صورت تمام وقت در شرکت دانش بنیان گرید ۱  شرایط تخصصی تسلط بالا به JavaScript و HTML و CSS تسلط به فریم‌ورک React Native, React JS توانایی پیاده سازی و استفاده از Native Components تسلط به پیاده سازی SPA تسلط به پیاده سازی PWA فهم و تسلط کامل از طراحی مسائل Multi-Platform مثل Responsive Design تسلط بر مفاهیم REST API آشنایی کافی با ابزارهای npm, Git آشنایی با Redux و Hook آشنایی با مکانیزم احراز هویت JWT آشنایی با / تسلط به کار در محیط Android Studio ترجیحا تجربه کاری بیش از دو سال ترجیحا مسلط به زبان انگلیسی  شرایط و مزایای شغلی حقوق ۸ الی ۱۰ میلیون تومان بیمه شرکت دانش بنیان گرید 1 امکان جذب به صورت سرباز نخبه پس از 6 ماه امکان صدور گواهی مشارکت فنی در محصولات بین المللی محیط کاری دوستانه و پویا دورکاری در ایام کرونا  شرایط اخلاقی دلسوز و علاقه‌مند به کار و یادگیری  متعهد و مسئولیت پذیر  داشتن روحیه کار تیمی و گروهی ارسال رزومه به آیدی تلگرام @anya_co لینک آگهی در جابینجا: https://jobinja.ir/companies/arman-software-yaran/jobs/RzZp
An article by Steve Lohr in today's Sunday New York Times about IBM Watson's lack of success affords us a chance to discuss how True AI (i.e. Mentifex AI) can pass a "second grade reading comprehension test" -- which is currently beyond the power of IBM Watson's "AI". Suppose that a mentifex-class Strong AI Mind reads in a second-grade-level story, "A boy and a girl are in the kitchen. The girl puts a plate on the table. The boy pushes the plate off the table." To test reading comprehension, we can expect questions and  answers such as the following. Q. Where is the boy/girl/plate/table? A. The boy/girl/plate/table is in the kitchen. Q. Where is the plate? A. The plate is off the table. Q. Where is the kitchen? A. I do not know. The Mentifex AI Mind understands the situation of the story only in terms of the language being used, namely subject-verb-object (SVO) sentences and prepositional phrases. At first the AI knows that the plate is on the table, because the girl puts it there. Then the AI knows not exactly where the plate is, but only that it is "off the table" because of the act of "push" by the boy. If there is no prior experience of the words involved, the AI does not understand each individual word, such as what a boy is or what a plate is. The AI makes a concept out of each word but with only a shallow conceptual knowledge. From the story alone, the AI understands each concept only in terms of the other concepts. Over time, the AI will develop deeper knowledge about each concept and about the world in general. It seems a shame for IBM to spend so much time, money and talent on developing Watson only to see it fall into desuetude. Any entity wanting to go beyond Watson could look into the Mentifex AI mind-design and finally do Watson in the correct True AI way. Mentifex (Arthur T. Murray) http://ai.neocities.org/NLU.html -- Natural Language Understanding; https://www.mail-archive.com/
Skills you need in the industry as a Data Scientist (in no particular order): 1. Web Scraping 2. Querying databases - Different flavours of SQL 3. Understanding basics of data storage, warehouses and data pipelines 4. Exploratory Data Analysis 5. Data Visualization 6. Hypothesis testing - A/B testing specifically 7. Writing effectively and clearly about your projects, results, tech used etc. 8. Communicating results to stakeholders 9. Understanding the business problem 10. Understanding the business impact of your solutions 11. Creating an API 12. Deploying Docker containers/virtual environments 13. Creating a basic GUI - specially for internal products and projects without a pre-existing frontend 14. Documentation of every important step and detail in your projects 15. Data Modeling 16. Feature Engineering 17. Building ML models 18. Monitoring ML models in production 19. Abstracting code whenever required 20. Making your projects more maintainable - specially when they're in/going to production 21. Helping juniors/colleagues unblock on technical issues 22. Creating relevant metrics 23. Ensuring data validation 24. Using a version control system - usually Git these days 25. Reading and understanding new research 26. Knowing basics of Data Structures, Algorithms, Memory Management, Multiprocessing etc. 27. Translating Business problems into Data problems 28. Stakeholder expectation management within your team and external teams 29. Understanding REST, SOAP and the technology behind them 30. Building, running and interpreting surveys Important note: - Not all of the above skills are needed all of the time! But different Data Scientist roles will have different weightage assigned to combinations of the above skills. And you don't need to be an absolute expert at each of these. Recognise your strengths. Get good at all of the above to some level and then keep improving that level in the areas that matter more in your current role. #منابع #علم_داده ❇️ @AI_Python
You asked me to resend some free Python courses shared here in the past. So here you go: 1. Introduction to Computer Science and Programming in Python: From MIT, for free! 🙌🏼 No registration or download required https://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-0001-introduction-to-computer-science-and-programming-in-python-fall-2016/ Video lessons 🎥 Slides and code 👨‍💻 2. CS50’s Web Programming with Python and JavaScript by Harvard University: HTML, CSS Git Python Django SQL, Models, and Migrations JavaScript User Interfaces Testing, CI/CD Scalability and Security Start learning immediately, no registration or download required. 3. Python course by Google https://developers.google.com/edu/python No registration or download needed. 4. Python for Beginners Programming with Python By Microsoft Authors: Susan Ibach, GeekTrainer 🎬 44 episodes ⏰ 180 mins 🔗 Link to course 5. NOC:Programming, Data Structures and Algorithms using Python ⌛️ 6 weeks 👨‍🏫 45 lectures 🔗 Link to course 6. Scientific Computing with Python Author: Dr. Charles Severance (also known as Dr. Chuck). 🎬 56 lessons 💻 5 scientific projects 📜 Free certification 🔗 Link to course Additional materials: Python Tutorial -> Condensed Cheatsheet https://learnxinyminutes.com/docs/python3/ Free Python Books A list of Python books in English that are free to read online or download. ⭐️ 2.6k https://github.com/pamoroso/free-python-books Learn Python the Hard Way Author: Zed Shaw Language: English Level: Beginner Online version (by the original author - no worries, this isn't a pirate link!) of the "Learn Python the Hard Way." book. It emphasizes repetition and concept understanding. 🔗 https://learnpythonthehardway.org/pyth
#پروژه_بررسی_14_ربات_انسان_نمای_معروف ربات انسان نمای اول | #ربات_ASIMO قسمت سوم: قابلیت های حرکتی زیر قسمت اول: تکنولوژی انحصاری راه رفتن دوپا در شرکت هوندا بخش دوم: معرفی zero moment point یا ZMP | تولید الگوی حرکتی در تکنولوژی walk stabilization control تکنولوژی walk stabilization control بر اساس یک مفهوم در دینامیک که نقطه با ممان صفر (zero moment point) یا ZMP نام دارد، اقدام به ایجاد الگوی راه رفتن (به عنوان الگوی حرکتی هدف) می کند. ربات انسان نما باید الگوی تولید شده را دنبال کند. نیروی گرانش (در راستای عمود بر زمین) و نیروی اینرسی وارده بر انسان نما (در راستای موازی با زمین) در راه رفتن دینامیکی بصورت برآیند منجر به ایجاد نیروی اینرسی کلی می شوند. نقطه ای که در آن امتداد نیروی اینرسی کلی به زمین برخورد می کند، ZMP نامیده می شود. برای درک این موضوع و نحوه تعیین ZMP می توانید تصویر چهارم را ببینید. اگر که ZMP در محل تماس پای تعادلی درفاز تعادل با یک پا و یا در محل چندضلعی ایجاد شده بین محل تماس هر دو پا در فاز تعادل دوپا واقع شود، آنگاه انسان نما می تواند در راه رفتن از نظر دینامیکی در تعادل باشد. برای درک این موضوع می توانید تصویر پنجم را ببینید که در آن شرایط تعادل دینامیکی بر اساس مفهوم ZMP ارائه شده است. بنابراین ZMP هدف بگونه ای تعریف می شود که شرایط مورد بحث ارضاء گردد. الگوی راه رفتن هدف بگونه ای تولید می شود که ترجکتوری مطلوب (با شرط قرار گرفتن ZMP در مکان مناسب برای تحقق تعادل دینامیکی) محقق شود. در واقع الگوی راه رفتن هدف توسط ترجکتوری در روبروی پا توصیف می شود. این ترجکتوری برای تعیین زوایای مفصلی ربات، موقعیت بالا تنه و ترجکتوری وضعیت انسان نما لازم است. الگوی راه رفتن هدف بر اساس تنظیم شتاب افقی بالا تنه (بگونه ای که ممان حول ZMP هدف صفر گردد) تولید می شود. ————— @roboticknowledge
Many Data Science aspirants struggle to find good projects to get a start in Data science or #MachineLearning. Here is the list of few #DataScience projects (found on kaggle), it covers Basics of Python, Advanced Statistics, #SupervisedLearning (Regression and Classification problems) 1. Basic #python and #statistics Pima Indians : https://www.kaggle.com/uciml/pima-indians-diabetes-database Cardio Goodness fit : https://www.kaggle.com/saurav9786/cardiogoodfitness Automobile : https://www.kaggle.com/toramky/automobile-dataset 2. Advanced Statistics Game of Thrones: https://www.kaggle.com/mylesoneill/game-of-thrones World University Ranking: https://www.kaggle.com/mylesoneill/world-university-rankings IMDB Movie Dataset: https://www.kaggle.com/carolzhangdc/imdb-5000-movie-dataset 3. Supervised Learning a) Regression Problems How much did it rain : https://www.kaggle.com/c/how-much-did-it-rain-ii/overview Inventory Demand: https://www.kaggle.com/c/grupo-bimbo-inventory-demand Property Inspection predictiion: https://www.kaggle.com/c/liberty-mutual-group-property-inspection-prediction Restaurant Revenue prediction: https://www.kaggle.com/c/restaurant-revenue-prediction/data IMDB Box office Prediction: https://www.kaggle.com/c/tmdb-box-office-prediction/overview b) Classification problems Employee Access challenge : https://www.kaggle.com/c/amazon-employee-access-challenge/overview Titanic : https://www.kaggle.com/c/titanic San Francisco crime: https://www.kaggle.com/c/sf-crime Customer satisfcation: https://www.kaggle.com/c/santander-customer-satisfaction Trip type classification: https://www.kaggle.com/c/walmart-recruiting-trip-type-classification Categorize cusine: https://www.kaggle.com/c/whats-cooking #پروژه #منابع #الگوریتمها #یادگیری_ماشین #هوش_مصنوعی #علم_داده #پایتون ❇️ @AI_Python
📌عنوان تخصص: کارشناس شبکه و IT 📌شرکت: هولدینگ مالی بانکی 📌محل کار: تهران 📗توانايي‌های عمومی مورد نياز: 🔺توانايی کار گروهی 🔺دارای پشتکار، پیگیر و توانایی پیشبرد اهداف سازمانی 🔺آشنایی کلی با مفاهیم مالی و سرمایه‌گذاری 🔺3حداقل سال سابقه کار مفید مرتبط همراه با رزومه مناسب 🔺امکان پاسخگویی تلفنی در ساعات غیر اداری در صورت لزوم 📚توانايي‌های تخصصي مورد نياز: 🔺تسلط به سخت افزار كامپیوتر, پرینتر و ویندوز کلاینت 🔺تسلط به سرور های Microsoft 🔺تسلط به نرم افزارهای بكاپ گیری 🔺تسلط به آنتی ویروس تحت شبکه 🔺تسلط با مجازی سازی VMware 🔺تسلط بر محصولات NGFW و UTMها و راه کارهای Endpoint Protection 🔺آشنایی با سوئیچ های سیسکو در حد CCNA 🔺آشنایی با راهبری فایروال 📣توضیحات مهم: 🟢قرارداد همکاری به صورت پاره وقت تنظیم خواهد شد. 🟢حضور در شرکت، یک روز در هفته الزامیست. لطفاً رزومه شغلی خود را با عنوان «کارشناس شبکه و IT» به آدرس پست الکترونیکی زیر ارسال نمایید: [email protected]
جزوات زیر از روی دوره یادگیری ماشین دکتر مهدیه سلیمانی از دانشگاه شریف نوشته شده. کل دوره 23 جلسه است و ویدیو هر جلسه در مکتب‌خونه موجود می‌باشد. ✅ لیست جلسات: 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه اول - مقدمه و معرفی یادگیری ماشین 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه دوم - تخمین ML و MAP 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه سوم - رگرسیون خطی و گرادیان کاهشی 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه چهارم - رگرسیون غیرخطی 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه پنجم - خطای روی کل توزیع و مفاهیم بایاس و واریانس 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه ششم - رگرسیون با دیدگاه احتمالاتی، کلسیفیکیشن 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هفتم - ادامه کلسیفیکیشن و دسته‌بندی چند کلاسه 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هشتم - دسته‌بند احتمالاتی 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه نهم - ادامه دسته‌بند احتمالاتی، رگرسیون لاجیستیک 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه دهم - دسته‌بند SVM 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه یازدهم - ادامه دسته‌بند SVM و کرنل 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه دوازدهم - ادامه کرنل و دسته‌بند درخت تصمیم 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه سیزدهم - ادامه دسته‌بند درخت تصمیم 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه چهاردهم - تئوری یادگیری 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه پانزدهم - ادامه تئوری یادگیری 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه شانزدهم - یادگیری مبتنی بر نمونه (Instance-Based) 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هفدهم - ادامه بحث يادگيری مبتنی بر نمونه و شروع يادگيری جمعی (Bagging و Boosting) 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هجدهم - ادامه يادگيری جمعی (Bagging و Boosting) 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه نوزدهم - انتخاب ويژگی و روش PCA 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیستم - ادامه روش PCA و شروع Clustering 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیست‌و‌یکم - ادامه Clustering 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیست‌و‌دوم - بررسی Clustering با دیدگاه احتمالاتی 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیست‌و‌سوم - Reinforcement Learning
How do I get professors to answer my emails? You have sent SO MANY emails to professors for scheduling your prelim, looking for research opportunities, or asking questions about courses etc. But they just don't reply at all! Angry face How do I get things done? A few tips below . Group scheduling* Don't send out Doodle/When2meet with 30+ entries! Look up their (course) schedules and propose only a few (3-5) time slots. If they need to spend 15 mins filling out your scheduling request, they will simply ignore your email. *Give them the control for planning their day* Scheduling a meeting: Don't: When will you be available? Do: I am available ... Will you be available in one of the time slots? When you ask for availability, you are effectively asking for commitment for ALL of the time slots. *Calendar invite* Once you scheduled a meeting. Please do send a calendar invite with all the required information (e.g., zoom link). Whatever that's not on their calendar does not exist. *Go 90% and let them finish the 10%* • Need a form? Pre-fill it as much as you can (you know their name and email). • Need a cover letter? Write a draft first. • Need a ref. letter? Send an updated CV and SOP. • Need to ask about a course? Read the syllabus first. *cc all parties involved* Asking for some code/data/clarification? cc'ing your PI and their PI definitely helps you get a prompt reply! *Don't cc all parties involved* Don't send requests to MULTIPLE people in the same thread. Everyone will assume others will do it and therefore no one will do it. Send INDIVIDUAL emails instead. *One email one topic* Help your professors respond your email quickly. Make your emails simple, clear, and actionable. *Formatting* You are not writing in plain texts. Formatting your email so that it's easy to read, e.g., • bullet points for parallel concepts • bold font for highlighting • bold phrase for organizing your email • italic for sentence stress. *Timeline* Provide specific action and specific date that the task needed to be completed. This helps them plan their schedule to make time for your requests. #منابع #اپلای ❇️ @AI_Python
‌ پادکست هوش مصنوعی امروزه رد پای هوش مصنوعی تقریبا در همه جا مشاهده می‌شود. هوش مصنوعی، تاثیرات قابل توجهی را بر کسب و کارها و صنایع گوناگون گذاشته است. از این رو، در فصل اول پادکست هوش مصنوعی، کاربردهای هوش مصنوعی در کسب و کارها مورد بررسی قرار گرفته است. در این پادکست که تاکنون ۱۲ قسمت از آن منتشر شده، کاربرد و اثر هوش مصنوعی در کسب و کارهای مطرح دنیا مانند آمازون، بایدو، اپل، علی‌بابا، مک‌دونالدز، گوگل و آلفابت، سیلزفورس، امریکن اکسپرس، بی‌اِم‌وی (BMW) و نتفلیکس بررسی شده است. این پادکست در اغلب پلتفرم‌های پادکست محبوب در دسترس است و با جستجوی عبارت هوش مصنوعی در این پلتفرم‌ها، می‌توانید آن را پیدا کنید. جهت تسهیل دسترسی، لینک مستقیم پادکست در برخی پلتفرم‌ها در ادامه آمده است. 🔗 تلگرام — کلیک کنید [+] 🔗 کست‌باکس — کلیک کنید [+] 🔗 اپل پادکست — کلیک کنید [+] 🔗 اسپاتیفای — کلیک کنید [+] 🔗 گوگل پادکست — کلیک کنید [+] 🔗 شنوتو — کلیک کنید [+] 🔗 ناملیک — کلیک کنید [+] ـــــــــــــــــــ سید مصطفی کلامی هریس وبسایت: kalami.ir کانال رسمی: @KalamiHeris کانال پرسش و پاسخ: @Kalami_QA ‌
سلام خدمت عزیزان امروز میخوام از مددجوهای نسیم مهربانی براتون بگم؛ ابولفضل ،فاطمه و حسین که پدرشون بیماره باید پیوند کبد بشه و توانایی کار کردن نداره تو یه خونه ،خونه که نه انباری هم نمیشه بهش گفت زندگی میکنن..‌هروقت رفتیم خونشون مامانش میگفت برا صبحونه چیزی ندارم بچه هام بخورن برن مدرسه..‌‌. علی و رضا که پدرشونو از دست دادن و سرکوره تو یه آلونکی که شبیه همه چی هست جز خونه زندگی میکنند آخرین بار براشون پنکه برده بودیم و متاسفانه این خانواده هم یخچالشون تقریبا خالی بود... و علیرضا که خونه ناپدریش زندگی میکنه مادرش میگه خرج لباس و مدرسه علیرضارو نمیده.... یا اون پیرزنی که دیروز لنگان لنگان امد دفتر خیریه باهامون دردودل کرد میگفت تویه اتاق پیش پسرم زندگی میکنم اماخرجو خوراکم جداست و میگفت شبها میترسم برم دستشویی داخل حیاط.‌‌‌... یا شهرام و بهنام که پدرشونو از دست دادند هروقت رفتیم خونشون مادرشون بود سرزمین مردم کارگری... یا پریسان که بابا مامانشو تو آتیش سوزی ازدست داده و الان پیش پدربزرگش زندگی میکنه و یا احمدرضا فاطمه و علی که باباشون از کار افتادس و حتی یبار میخواست بخاطر فشار مشکلات زندگی خودشو بکشه ... یا مادری که شوهرش زندانه و با چنگ و دندون داره شکم خودشو سه تا بچه هاشو سیر میکنه اینا بخش کو چکی از زندگی مددجوهامونه مشابه این خانواده ها زیاد داریم تصمیم گرفتیم تو این روزهایی که برخلاف روزهای نزدیک عید نوروز و ماه رمضان کمتر سبد کالا توزیع میشه برای خانواده های نیازمندمون سبد کالا تهیه کنیم ....بیاید تو این کار خیر مشارکت کنیم حتی با کمترین مقدار 🙏 💳6037997950135955
چگونه چنین خطاهایی را در توزیع های لینوکس جهت نصب برنامه R برطرف کنیم؟ اگر چنین خطایی در نرم افزار R رخ داد به شیوه گفته شده تغییرات را اعمال کنید. installation of package ‘tidyverse’ had non-zero exit status sudo apt-get install cmake cmake-gui gfortran sudo apt-get install liblapack-dev libblas-dev libatlas-base-dev libarpack2-dev libarpack++2-dev sudo apt-get install libblas-dev libatlas-base-dev sudo apt-get install libpoppler-cpp-dev sudo apt-get install -y libtesseract-dev libleptonica-dev tesseract-ocr-eng sudo apt-get install libpng-dev sudo apt-get install libjpeg8-dev sudo apt-get install libtiff5-dev sudo apt-get install zlib1g-dev sudo apt install build-essential libncursesw5-dev libgdbm-dev libc6-de sudo apt install libreadline-gplv2-dev libncursesw5-dev libssl-dev libsqlitesudo dpkg -i libjpeg62-turbo_1.5.1-2_i386.deb3-dev tk-dev libgdbm-dev libc6-dev libbz2-dev sudo apt install libxml2-dev sudo apt install libcurl4-openssl-dev sudo apt install -y libxml2-dev libcurl4-openssl-dev libssl-dev sudo apt install libjepg62 sudo dpkg -i libgstreamer-plugins-base0.10-0_0.10.36-2_i386.deb sudo dpkg -i libgsl0ldbl sudo apt install gsl-bin libgsl0-dev sudo dpkg -i libgstreamer0.10-0_0.10.36-1.5_i386.deb sudo dpkg -i libjpeg62-turbo_1.5.1-2_i386.deb sudo add-apt-repository ppa:ubuntugis/ubuntugis-unstable sudo apt update sudo apt-get install libudunits2-dev libgdal-dev libgeos-dev libproj-dev sudo apt install libudunits2-dev بعضی از این دستورات برای اجرا شدن و نصب نیاز هست که به وبسایت پکیج توزیع مورد نظر برید و این موارد رو دانلود کنید. چنین خطایی برای من وجود داشت و حل شد برای توزیع های دبیان بیس و اوبونتو حل شد . احتمالا میتوان به وجود پکیج ها و ابزارهای مناسب مانند انچه در فوق ذکر شده در مخازن توزیع های مختلف امید داشت که نیاز به بررسی دقیق تر در هر توزیع دارد ❇️ @AI_Python ❇️ @Data_Experts
پیشنهاداتی برای شروع یادگیری پردازش زبان طبیعی Natural Language Processing (NLP) 📘 Speech and Language Processing 📘 Linguistic Fundamentals for Natural Language Processing: 100 Essentials from Morphology and Syntax 📘 Linguistic Structure Prediction by Noah A. Smith 📘 Introduction to Natural Language Processing by Jacob Eisenstein 📘 Neural Network Methods in Natural Language Processing (Synthesis Lectures on Human Language Technologies) by Yoav Goldberg 🔰 Modern Deep Learning Techniques Applied to Natural Language Processing by Soujanya Poria and Elvis Saravia 📺 CS224N: Natural Language Processing with Deep Learning | Winter 2019 And 2021 📘 Natural Language Processing with PyTorch: Build Intelligent Language Applications Using Deep Learning 📘 Natural Language Processing in Action by Hobson Lane, Cole Howard, and Hannes Hapke 📘 Practical Natural Language Processing 🔰 مقالات این حوزه پژوهشی : 📃 Papers with Code 📃 arXiv (cs.CL) 📃 Made with ML 📃 NLP Progress 📃 NLP News by Sebastian Ruder 📃 NLP Newsletter by Elvis Saravia #کتاب #فیلم #منابع #پردازش_زبان_طبیعی #کلاس_آموزشی #NLP #Book ❇️ @AI_Python
We are excited to announce that applications are open for the 3rd NYU AI School, a free winter school for early undergraduates: The NYU AI School is a week-long in-person* winter school that prioritizes those from underserved communities who lack institutional resources in artificial intelligence (AI) and machine learning (ML). Participants will learn the basics of AI and ML from experts at Google, Princeton, NYU, Columbia, get hands-on experience applying it to images and text, and explore career paths in the field. We encourage students with and without a programming background to apply for the event! *with measures for switching to an online event, subject to COVID guidelines in December Applications are evaluated on a rolling basis with the deadline on Dec. 10, 2021. Feel free to shoot any questions or comments to [email protected]. Thank you! Application Link: https://bit.ly/website-nyu-ai-school-2022 Poster: https://drive.google.com/file/d/1Rf2_uX678XBky0nazd-w1KHim02-Xaov/view?usp=sharing ❇️ @AI_Python
✔️ معرفی #منابع پیشنهادی برای #یادگیری_عمیق قدم اول برای یادگیری عمیق #یادگیری_ماشین #پردازش_زبان_طبیعی #هوش_مصنوعی #آموزش #شبکه_عصبی_کانوولوشن #شبکه_عصبی #منابع ✅1 - فراگیری مفاهیم مقدماتی یادگیری ماشین مباحث آموزشی دکتر هینتون و بنجیو و لکون 👈 لینک ✅ فیلم های اموزشی یادگیری ماشین و یادگیری عمیق دکتر رضوی 👈 لینک ✅ تسلط بر مباحث برنامه نویسی پایتون و کار با تنسرفلو وکراس ✅ تسلط بر مباحث ریاضیات و جبر از دانشگاه MIT 👈 لینک ✔️ معادلات ماتریسی یادگیری عمیق دانشگاه کالیفرنیا جنوبی 👈 لینک ✔️ استفاده از سایت بسیار مشهور که به وسیله پژوهشگران برتر هدایت میشود fast.ai 👈 لینک 📚 2 - مطالعه منابع عمیق دانشگاه ها و... یادگیری عمیق دانشگاه آکسفورد 👈 لینک 👈 لینک ۲ 👈 لینک ۳ 🖋فیلمهای این دانشگاه ❌ آموزش های شبکه ای کانولوشن و یادگیری ماشین و... ⁉️ لینک ❌ وبسایتی که آموزشها و مقالات را از سال ۲۰۱۲ تا ۲۰۱۶ قابل دسترس است ⁉️ لینک ❌ شبکه عصبی کانولوشن برای تشخیص بصری ⁉️ لینک ❌ پردازش زبان طبیعی برای یادگیری ماشین ⁉️لینک ❌ مدرسه تابستانی یادگیری عمیق مونترال ⁉️ لینک ۱ ⁉️ لینک ۲ ❌ شبکه کانولوشن عصبی و شبکه عصبی ⁉️ لینک 🔍 یادگیری شبکه های عصبی جفری هینتون کورسرا 📘 کلاس شبکه های عصبی دانشگاه اوشربروک کانادا 👈لینک 📕منابع یادگیری ماشین دانشگاه کالتک برای یادگیری نظری ها 👈 لینک 📘 3- معرفی کتابها Neural Networks and Deep Learning Book by Michael Nielsen Deep Learning Book by Ian Goodfellow, Yoshua Bengio and Aaron Courville 📘 4- سایر منابع CS231n Convolutional Neural Networks for Visual Recognition University of Stanford Getting Started in Computer Vision by Mostafa S. Ibrahim he focus on GPU and ... 🗓 پردازش زبان طبیعی دانشگاه استنفورد 👈 لینک 👈لینک ۲ 🗓 مطالعه مقاله درمورد حافظه شبکه👈 لینک 📘 مطالعه مقاله پایه ای حافظه شبکه و NLP 👈 لینک ویدیوهای شرکت DeepMind 👈 لینک ❇️ یادگیری عمیق تقویتی 👈 لینک کتابهای ❇️ فهم یادگیری LSTM 👈 لینک ❇️ اثر بخشی ناعادلانه RNN 👈 لینک ✔️ مدل های تولیدی ✅ مقاله جهت یادگیری مدلهای GANs 👈لینک ✅ یادگیری مدل VANs 👈 لینک ✅ مقاله نوشته شده دکتر Ian Goodfellow در مورد GAN 👈 لینک ✅ مقاله نوشته شده LAPGAN 👈 لینک ✅ مقاله نوشته شده در مورد DCGAN 👈لینک مقاله 👈 لینک کدها ✅ استفاده از روش DCGAN برای تصاویر کیفیت بالا 👈 لینک ✅ فیلم های یادگیری عمیق برای پردازش تصویر 👈 لینک 🌐 ساخت پروژه 👈 لینک دیتا 🌐 شناسایی و طبقه بندی تصاویر 👈 لینک ۱ 👈 لینک ۲ 🌐 تحلیل احساسات با استفاده از RNN 👈لینک و با استفاده از CNN 👈 لینک 🌐 کاربرد الگوریتم عصبی سبک هنری 👈لینک 🌐 ساخت موسیقی با استفاده از RNNs 👈 لینک 🌐 ساخت بازی پینگ پونگ با استفاده از یادگیری عمیق تقویتی 👈 لینک ✳️ استفاده از شبکه عصبی Rate a selfie 👈 لینک ✳️ استفاده از رنگ عکسهای سیاه و سفید با استفاده از یادگیری عمیق 👈 لینک ✳️ سایر منابع یادگیری عمیق از پژوهشگران برتر کارپاتی 👈 لینک مقالات ✳️ لینک یادگیری عمیق دانشگاه استنفورد 👈 لینک ۱ 👈 لینک ۲ ✳️ یادگیری عمیق 👈 لینک 🔔@AI_Python