text
stringlengths 1k
4.1k
|
---|
سلام، اگه جایی دیدین برای لرستان کمک میفرستند اینا اقلام ضروریه:
۱ . پلاستیک ضخیم با عرض ۴ یا ۶ متر جهت ایزولاسیون پشت بام خانههای گلی در معرض تخریب (مهمترین نیاز)
۲ . روکش پلاستیکی چادر جهت عایق در مقابل آب (مهمترین نیاز)
۳ . مواد شوینده (صابون مایع و شامپو)
۴ . مواد بهداشتی (نوار بهداشتی و پوشک بچه)
۵ . چکمه پلاستیکی
۶ . نفت (خیلی ضروری و مهم)
۷ . فانوس جهت روشنایی چادرها
۸ . زیرانداز (حصیر پلاستیکی)
۹ . شیرخشک و غذای کمکی کودک
۱۰ . کُلمن آب تانکر پلاستیکی آب (دو هزار لیتری)
کنسرو و نان
۱۱ . چراغ والور یا چراغ نفتی
۱۲ . ظروف شامل : قابلمه، تابه، بشقاب، کتری، قوری فلزی و ...
۱۳ . لباس گرم (کلاه، کاپشن، ژاکت، شلوار ورزشی)
۱۴ . لباس زیر (زنانه، مردانه، بچگانه)
۱۵ . پتو (پتوی عادی، پتوی سربازی)
۱۶ . انواع نان : ترد و خشک و بیسکویت مثل ساقه طلایی مادر
۱۷ . چای کیسهای و قند
۱۸ . چراغ پیشانی + باتری
۱۹ . غذاهای مدت دار کنسرو شده
۲۰ . کفش مناسب و مقاوم سایز های مختلف
۲۱ . دستکش و کلاه گرم کودکانه
به نقل از: یک گروه کمک رسانی (لینکش رو بگیرم تکمیل میکنم خبر رو)
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
شرکت پردازش هوشمند ترگمان از میان علاقمندان به یادگیری عمیق در حوزه پردازش زبان طبیعی بالاخص ترجمه ماشینی کارآموز میپذیرد. شرایط:
🔸 دانش پایه از مباحث ریاضی یادگیری عمیق
🔹 تسلط به یکی از زبانهای ++C یا پایتون
🔸 آشنایی کلی با لینوکس
🔹 امکان حضور در محل شرکت حداقل ۳ روز در هفته (تهران سهروردی)
✅ طول دوره حداکثر ۳ ماه بوده و برای کسانی که پایاننامه در این حوزه داشته باشند شرایط ویژه در نظر گرفته خواهد شد.
✅ در طول دوره چند پروژه عملی واقعی توسط کارآموز انجام شده و امکانات سختافزاری لازم در اختیار وی قرار خواهد گرفت.
✅ کارآموزان برتر از امکان استخدام پس از پایان دوره نیز برخوردار خواهند بود.
✴️ دوره کارآموزی فاقد هزینه یا پرداختی است.
✴️ کلیه نتایج دوره کارآموزی به نام محقق و به صورت متنباز منتشر خواهد شد.
✴️ تنها یک لبتاپ معمولی کفایت میکند و سرور و جیپییو از طرف ما تامین میشود
💠 در دورههای گذشته از کارآموزان غیر حضوری نتیجه مناسبی حاصل نشده در نتیجه از پذیرفتن کارآموز غیر حضوری مگر در شرایط خاص معذور هستیم
جهت برقراری ارتباط : @Ziabary
کانال هوش مصنوعی پایتون و لینوکس:
@ai_python |
#تبلیغاتـدرـکانال ما:
❇️ شرایط، هزینه ها و نحوه خرج شدن پولی که میدید
😬 هزینه تبلیغات در کانال:
▪️به ازای هر ساعت پست آخر ۱۰ هزار تومان
▪️به ازای هر هزار بازدید ۱۵ هزار تومان
▪️پست آخر و پین ۱۲ ساعت (از ساعت ۱۱ شب تا ۱۱ صبح) ۵۰ هزار تومان
😬 شرایط تبلیغ در کانال:
🔆 پیش از تبلیغ حتما پست مورد نظرتان را در یک پیام به آی دی @MeysamAsgariC ارسال کنید تا محتوای آن بررسی شود.
🔆 محتوای شامل موارد نقض حقوق کپی رایت، تبلیغات فیک و موضوعات سیاسی-مذهبی را نشر نمیدهیم.
😎 شرایط ویژه:
🌱 میتوانید به عنوان حامی کانال ما خودتان را ثبت کنید.
🌱 پرداخت هزینه ماهیانه ۱۰۰ هزار تومان باعث میشود که یک ماه حامی کانال ما شوید و ۲۵٪ تخفیف ویژه برخوردار شوید.
🤓 شرایط ویژه تر:
⚠️ اگر مطب جالبی در کانال خودتون درج کردید که فکر میکنید مهمه و جالبه و مرتبط هم هست بدید ما فوروارد میکنیم بدون هیچ چشم داشتی.
⚠️ اگر کسب و کار کوچکی دارید و تازه شروع کردید و هزینه تبلیغات رو نمیتونین بدید مهم نیست ما مجانی تبلیغ میکنیم فقط در گروههامون نزنید و اسپم نکنید.
🤔 پولی که برای تبلیغ میدید چی میشه؟ کجا خرج میشه؟
▪️هزینه ای که برای تبلیغات پرداخت میکنید تماما (به علاوه هزینه ای که ادمینها از جیب خودشون میزارند) به حساب بنیاد کودک جهت حمایت از کودکان نیازمندی که میخواهند به تحصیل ادامه بدند واریز میشود.
لینک بنیاد کودک
#تبلیغاتـدرـکانال
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
🔴 اطلاعیه سازمان سنجش در خصوص عدم به تاخیر انداختن کنکور
♦️ متن اطلاعيه سازمان سنجش آموزش كشور در خصوص برگزاري آزمون كارشناسي ارشد ناپيوسته سال 1398👇
🔻 ضمن ابراز همدردي با هموطنان عزيزی كه در جريان سيل اخير در بخشهايی از شهرها و استانهای كشور، دچار خسارت شدهاند، بدينوسيله به اطلاع داوطلبان متقاضی شركت در آزمون كارشناسی ارشد ناپيوسته سال 1398 میرساند، نظر به اينكه فرايند اجرايی آزمون مذكور طولانی بوده و ميبايست به نحوی برنامهريزی شود كه نتايج نهايی در اوايل شهريورماه اعلام گردد، لذا آزمون مطابق برنامهزمانبندی اعلام شده قبلی در روزهای پنجشنبه 97/02/05 و جمعه 97/02/06 برگزار خواهد شد و اطلاعيه اين سازمان درخصوص حوزههای برگزاری، تاريخ و نحوه توزيع كارت در روز دوشنبه 98/01/26 از طريق سايت اين سازمان منتشرخواهد شد.
🔻 شايان ذكر است وزارت علوم، تحقيقات وفناوری و اين سازمان از زمان وقوع سيل، پيگير ارايه تسهيلات يا اختصاص سهميه مشابه زلزله زدگان از مراجع ذيصلاح براي داوطلبانی كه آسيب مستقيم ديده اند می باشد كه به محض حصول نتيجه جزئيات آن در دفترچه انتخاب رشته به استحضار داوطلبان عزيز خواهد رسيد.
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
یکی از جذابترین کاربردهای یادگیری عمیق (نظر شخصی) همین ماشینهای خودران و جذابتر ازون
Autonomus Flying Vehicle هست
بخاطر علاقهایی که شخصاْ به این کاربرد دارم و درحد توان شخصی هر از گاهی تحقیق (عملی) و تستهایی انجام میدم
وقتی صحبت ازین چیزها میشه اولین شرکتهایی که جلب توجه میکنه ؛ گوگل - بایدو - اوبر هستند و نمیشه در این زمینه کار کرد و پروژه آپولو بایدو رو نشناخت
طبق تعریف خودشون :
Apollo is a high performance, flexible architecture which accelerates the development, testing, and deployment of Autonomous Vehicles.
تمامی بخشها و تمام اطلاعات و حتی HD MAP های خود بایدو (آپولو بخاطر کمکهای بزرگش تو این زمینه و بهبود استانداردها بسیار معروف هست)
بطور کامل در دسترس هست.
یکی از بخشهایی که خیلی من رو به آپولو و کارشون علاقه مند کرد همین موضوع
OpenSource
بودن بود؛ به لطف این شرکت نقشهها و سختافزارهای لازم ؛ اتصالات بهینه و نحوه کالیبره کردن نیز در اختیار قرار گرفته
اگر شما هم به این مباحث علاقه مند هستید و میخواید بیشتر آشنا بشید
بنظرم لینکهای زیر رو از دست ندید :
https://github.com/ApolloAuto/apollo
https://github.com/ApolloAuto/apollo/blob/master/docs/quickstart/apollo_3_0_quick_start.md
https://github.com/ApolloAuto/apollo/blob/master/docs/quickstart/apollo_2_5_hardware_system_installation_guide_v1.md
@Pytens |
📌 #فناوری اوسینت (#OSINT)
زندگی بشر، امروزه در فضایی کلان از اطلاعات جاریست. با رشد و گسترش شبکههای اجتماعی و فضای مجازی اطلاعات به صورت افسارگسیخته ای در حال تولید شدن است.
هوش مصنوعی، ابرکامپیوترها و ریاضیات گسسته، دائما در حال توسعه یافتن برای پیدا کردن اطلاعات مناسب و در ظاهر دست نیافتنی از طریق این حجم عظیم از اطلاعات میباشد.
⭕️ اما تحلیل این حجم عظیم از اطلاعات تا قرنهای دیگر توسط هوش مصنوعی امکانپذیر نخواهد بود.
✅ اینجاست که #اوسینت به عنوان تکمیل کننده کار ماشینها و ابرکامپیوترها برای تحلیل آنچه هوش مصنوعی نمیتواند به دست بیاورد وارد میشود و آن اطلاعات و تحلیلهایی را که ریاضیات گسسته و هوش مصنوعی در رسیدن به آن در میمانند را با شهود ساختاریافته انسانی تحلیل میکند.
اوسینت مجموعه علوم و تکنیکهای #جستجوی اطلاعات و #منابع_عمومی است. اوسینت پیشرفته (که محتوای دورههای بعدی خواهد بود) به موارد زیر میپردازد:
🎯 نوشتن و توسعه اپلیکیشنهای جستجو
🎯 کدنویسی برای کار با کوئریهای هر مسئله
🎯 یافتن روشهای ضد اوسینت برای محافظت از اطلاعات
🎯 به کارگیری هوش مصنوعی، در تلفیق با شهود انسانی برای یافتن اطلاعات
در واقع، دورهی عمومی اوسینت، آموزش متدهای #سرچ_حرفهای موتورهای جست و جو در وب و معرفی و استفاده از نرمافزارهایی است که قدرت جستجوی شما را به شکل خارق العادهای چندین برابر میکند تا بتوانید اطلاعات ارزشمند علمی، تجاری، ژورنالیستی، سیاسی و یا حتی امنیتی را به دست آورید.
ارزشمندی همین اطلاعات است که باعث شده تا اوسینت، کارفرمایان بزرگ و زیادی داشته باشد که به دنبال اطلاعات حیاتی زمینه فعالیت خود میگردند و به دلیل وجود همین کارفرمایان است که این دوره، به صورت #آموزشی_استخدامی طراحی شده است.
♨️ آکادمی فن آسا با بهره گیری از اساتید شرکت جامع؛ تنها مجری اوسینت در کشور برگزار می نماید:
کارگاه عمومی #آموزشی_استخدامی #کارآگاهی_در_وب (OSINT)
☎️ ۰۲۱-۲۶۷۰۵۹۶۲
➕ @FanasaAcademy |
How to Configure Apache and PHP for High Traffic Websites on Linux Server
فرض کنید یک سرور دارید یک پست از وبسایت شما در جایی قرار میگیرد و هزاران بازدید کننده به سایت شما رجوع میکند در بهترین حالت اگر سایت شما با apache , php باشد سی یا شصت ثانیه طول میکشد تا وب سایت شما لود شود و دارای lag میباشد و در بدترین حالت وب سایت شما قادر به ارائه خدمات نمی باشد ولی با mpm_event این حجم از بازدید کننده را apache راحتتر میتواند کنترل و مدیریت کند
برای استفاده از Apache MPM در توزیع های دبیان بیس اول از همه از نصب پکیج libapache2-mod-php خودداری فرمایید زیر با نصب این پکیج به صورت پیشفرض mpm_prefork فعال میشود که مشکل بالا را به خوبی نمیتواند رفع کند پس به ترتیب به روش زیر عمل کنید:
apt update && apt install apache2
وقتی apache را نصب کردی با دستور زیر مشاهده میکنید که mpm event به صورت پیشفرض فعال است:
apachectl -V
سپس php را با دستور زیر فعال میکنیم:
apt install php-fpm
سپس پروتکل FastCGI را فعال میکنیم:
a2enmod proxy_fcgi
بعد کانفیگ پیشفرض php-fpm را فعال میکنیم:
a2enconf php7.0-fpm
و سپس apache را ریستارت میکنیم:
systemctl restart apache2
برای استفاده از دیتابیس سرور و mysql کامند زیر را وارد میکنیم:
apt install mariadb-server php-mysql
برای استفاده از Apache MPM در توزیع های ردهت بیس به روش زیر عمل میکنیم
ابتدا apache را نصب میکنیم:
yum install httpd
سپس با کامند زیر مشاهده میکنیم که به صورت پیشفرض mpm prefork فعال است:
apachectl -V
خب سپس با ستور زیر یک # در پشت ماژول mpm prefork قرار میدهیم و آن را غیر فعال میکنیم:
sed -i '/mpm_prefork\.so$/s/^/#/' /etc/httpd/conf.modules.d/00-mpm.conf
و سپس # پشت ماژول mpm event را برمیداریم:
sed -i '/mpm_event\.so$/s/^#//' /etc/httpd/conf.modules.d/00-mpm.conf
سپس با کامند زیر باید مشاهده کنید که event فعال شده است :
apachectl -V
سپس php-fpm و ماژول FastGCI را نصب میکنیم:
yum install php-fpm mod_fcgid
برای اینکه به apache در مورد چگونگی پردازش فایل های php کانفیگ کنیم تمام موارد زیر را در یک ترمینال کپی کنید و سپس اینتر را بزنید:
cat <<PASTE > /etc/httpd/conf.d/php.conf
# Redirect to local php-fpm if mod_php is not available
<IfModule !mod_php7.c>
<IfModule proxy_fcgi_module>
# Enable http authorization headers
<IfModule setenvif_module>
SetEnvIfNoCase ^Authorization$ "(.+)" HTTP_AUTHORIZATION=$1
</IfModule>
<FilesMatch ".+\.ph(p[3457]?|t|tml)$">
#SetHandler "proxy:unix:/run/php/php7.0-fpm.sock|fcgi://localhost"
SetHandler "proxy:fcgi://127.0.0.1:9000"
</FilesMatch>
<FilesMatch ".+\.phps$">
# Deny access to raw php sources by default
# To re-enable it's recommended to enable access to the files
# only in specific virtual host or directory
Require all denied
</FilesMatch>
# Deny access to files without filename (e.g. '.php')
<FilesMatch "^\.ph(p[3457]?|t|tml|ps)$">
Require all denied
</FilesMatch>
</IfModule>
</IfModule>
PASTE
که در دستورات بالا در قسمت sethandler میتوانید پروکسی مورد نظر خود را بگذارید
سپس apache را ریستارت کنید:
systemctl restart httpd.service
و سپس php-fpm را استارت کنید:
systemctl start php-fpm.service
systemctl enable php-fpm.service
#برنامه_نویسی #آموزش #لینوکس
❇️ @AI_Python |
#تبلیغاتـدرـکانال ما:
❇️ شرایط، هزینه ها و نحوه خرج شدن پولی که میدید
😬 هزینه تبلیغات در کانال:
▪️به ازای هر ساعت پست آخر ۱۰ هزار تومان
▪️به ازای هر هزار بازدید ۱۵ هزار تومان
▪️پست آخر و پین ۱۲ ساعت (از ساعت ۱۱ شب تا ۱۱ صبح) ۵۰ هزار تومان
😬 شرایط تبلیغ در کانال:
🔆 پیش از تبلیغ حتما پست مورد نظرتان را در یک پیام به آی دی @MeysamAsgariC ارسال کنید تا محتوای آن بررسی شود.
🔆 محتوای شامل موارد نقض حقوق کپی رایت، تبلیغات فیک و موضوعات سیاسی-مذهبی را نشر نمیدهیم.
😎 شرایط ویژه:
🌱 میتوانید به عنوان حامی کانال ما خودتان را ثبت کنید.
🌱 پرداخت هزینه ماهیانه ۱۰۰ هزار تومان باعث میشود که یک ماه حامی کانال ما شوید و ۲۵٪ تخفیف ویژه برخوردار شوید.
🤓 شرایط ویژه تر:
⚠️ اگر مطب جالبی در کانال خودتون درج کردید که فکر میکنید مهمه و جالبه و مرتبط هم هست بدید ما فوروارد میکنیم بدون هیچ چشم داشتی.
⚠️ اگر کسب و کار کوچکی دارید و تازه شروع کردید و هزینه تبلیغات رو نمیتونین بدید مهم نیست ما مجانی تبلیغ میکنیم فقط در گروههامون نزنید و اسپم نکنید.
🤔 پولی که برای تبلیغ میدید چی میشه؟ کجا خرج میشه؟
▪️هزینه ای که برای تبلیغات پرداخت میکنید تماما (به علاوه هزینه ای که ادمینها از جیب خودشون میزارند) به حساب بنیاد کودک جهت حمایت از کودکان نیازمندی که میخواهند به تحصیل ادامه بدند واریز میشود.
لینک بنیاد کودک
#تبلیغاتـدرـکانال
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
Bernstein Network is announcing the "Brains for Brains Young Researchers' Computational Neuroscience Award".
The call is open for researchers of any nationality who have contributed to a peer reviewed publication (as coauthor) or peer reviewed conference abstract (as first author) that was submitted before starting their doctoral studies, is written in English and was accepted or published in 2018 or 2019.
The award is endowed with a travel grant of 2.000 € to cover a trip to Germany, including participation in the Bernstein Conference 2019 in Berlin (www.bernstein-conference.de), and an individually planned visit to up to two German research institutions in Computational Neuroscience.
Deadline for application is April 24, 2019, 2:00 p.m. CET (Application deadline will not be extended!)
Detailed information about the application procedure can be found under:
https://www.bernstein-network.de/en/the-network/awards/b4b2019
For inquiries please contact [email protected]
Best regards,
Kerstin Schwarzwälder
اپلای بفرمایند دوستان نروساینسی و کامپیوتر مرتبط
@ai_python |
تولید جمله ای تصادفی با پایتون
import random
article = ["the", "a", "one", "some", "any"]
noun = ["boy", "girl", "dog", "town", "car"]
verb = ["drove","jumped","ran","walked", "skipped"]
preposition = ["to","from", "over", "under", "on"]
def random_int():
return random.randint(0,4)
def random_sentence():
"""Creates random and return sentences."""
return ("{} {} {} {} {} {}" .format(article[random_int()] ,noun[random_int()] ,verb[random_int()] ,preposition[random_int()]
, article[random_int()]
,noun[random_int()])).capitalize()
# prints random sentences
for sentence in list(map(lambda x: random_sentence(), range(0, 20))):
print(sentence)
print("\n")
story = (". ").join(list(map(lambda x: random_sentence(), range(0, 20))))
# prints random sentences story
print("{}".format(story))
#پایتون #آموزش #فیلم #python
❇️ @AI_Python
✴️ @AI_Python_EN
🗣 @AI_Python_Arxiv |
بارش باران با پایتون
import numpy as np
import matplotlib.pyplot as plt
from matplotlib.animation import FuncAnimation
import tkinter as TK
fig = plt.figure(figsize=(7, 7))
ax = fig.add_axes([0, 0, 1, 1], frameon=False)
ax.set_xlim(0, 1), ax.set_xticks([])
ax.set_ylim(0, 1), ax.set_yticks([])
n_drops = 50
rain_drops = np.zeros(n_drops, dtype=[('position', float, 2),('size', float, 1),('growth',float1),('color', float4)])
rain_drops['position'] = np.random.uniform(0, 1, (n_drops, 2))
rain_drops['growth'] = np.random.uniform(50, 200, n_drops)
scat = ax.scatter(rain_drops['position'][:, 0], rain_drops['position'][:, 1],
s=rain_drops['size'], lw=0.5, edgecolors=rain_drops['color'],
facecolors='none')
def update(frame_number):
# Get an index which we can use to re-spawn the oldest raindrop.
current_index = frame_number % n_drops
# Make all colors more transparent as time progresses.
rain_drops['color'][:, 3] -= 1.0/len(rain_drops)
rain_drops['color'][:, 3] = np.clip(rain_drops['color'][:, 3], 0, 1)
# Make all circles bigger.
rain_drops['size'] += rain_drops['growth']
# Pick a new position for oldest rain drop, resetting its size,
# color and growth factor.
rain_drops['position'][current_index] = np.random.uniform(0, 1, 2)
rain_drops['size'][current_index] = 5
rain_drops['color'][current_index] = (0, 0, 0, 1)
rain_drops['growth'][current_index] = np.random.uniform(50, 200)
# Update the scatter collection, with the new colors, sizes and positions.
scat.set_edgecolors(rain_drops['color'])
scat.set_sizes(rain_drops['size'])
scat.set_offsets(rain_drops['position'])
animation = FuncAnimation(fig, update, interval=10)
plt.show()
#پایتون #آموزش #کلاس_آموزشی #آموزش_کلاسی #فیلم #python
❇️ @AI_Python
✴️ @AI_Python_EN
🗣 @AI_Python_Arxiv |
مدرک گرایی و عباراتی چون «درس بخون یه چیزی بشی» نسلی را نابود کرد. نسلی که توانی بالا برای پیشبرد اقتصاد ملی بود. در صورتی با این معضل مواجه هستیم که بسیاری از دانشگاههای دوره های کاملا نامرتبط با اشتغال را در سرلوحه دروس خود دارند و در سطوح بالاتر (ارشد و دکترا) پایان نامه هایی تعریف میشود که هیچ ارتباطی با صنعت کشور ندارد.
این عدم توازن در علوم تدریس شده و نیازهای کشور نتیجه ای جز شکست تحصیلکرده ها و صادرات نخبه نخواهد داشت.
چاره اندیشی عمیق و تغییر ساختاری در این ساختار غلط شدیدا نیاز می باشد تا از نتایج آن مانند حجوم کنکوری ها به سمت رشته هایی مانند پزشکی جلوگیری شود چرا که نیازهای دیگر کشور همچنان بی پاسخ مانده است.
صنایعی مانند خودرو که سالهاست درجا میزنند و صنایعی مانند کامپیوتر که با وجود پتانسیل بالای کشور هنوز شکوفا نشده اند.
لازم به ذکر است که ایران در فرار مغزها رتبه اول را با ۱۵۰ تا ۱۸۰ هزار نفر دارد. به این معنی که سالیانه ۱۵۰-۱۸۰ هزار نفر که تحصیلکرده هم هستند از کشور مهاجرت میکنند.
(نویسنده: میثم عسگری - جهت سلب مسیولیت نوشته از مابقی ادمین ها)
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
با عرض سلام و احترام
بنده فتحی هستم دانشجوی دکترای رشته انفورماتیک پزشکی در دانشگاه علوم پزشکی ایران. به منظور تکمیل و جمعآوری دادههای یک پژوهش، در زمینه "ایجاد یک سیستم پشتیبان تصمیم برای تشخیص اختلال اضطراب اجتماعی" یک وبسایت طراحی نمودهام که مشتمل بر دو پرسشنامه الکترونیک و تعدادی متغیر لازم برای پژوهش است.
✅ از دوستان گرامی تقاضا دارم اگر تمایل به شرکت در پژوهش دارید و میخواهید بدانید بر اساس تستهای رایج روانشناسی، آیا مبتلا به اختلال اضطراب اجتماعی میباشید، روی لینک زیر کلیک کنید.
زمان تقریبی برای انجام تست اصلی (SPIN) : 10 دقیقه
زمان تقریبی برای انجام تست دوم (LSAS): 15 دقیقه
✅ هیچگونه اطلاعات خصوصی از شرکت کنندگان دریافت نمیشود لذا افراد شرکتکننده برای پژوهشگر کاملا ناشناس میباشند. درصورت شرکت در مطالعه دو تست رایج مربوط به اختلال اضطراب اجتماعی از شما گرفته و پس از انجام آنها نتیجه تست به شما نشان داده خواهد شد.
✅ نکته: در صورتی که از طریق گوشی همراه وارد سایت میشوید لطفا تنظیمات مرورگر گوشی خود را روی desktop site بگذارید و یا اینکه گزینه چرخش اتوماتیک (auto rotate) را روی گوشی فعال نموده و گوشی را بصورت افقی (landscape) نگه دارید.
✅ اگر احیاناً با نت همراه اول مشکلی در ورود به سایت داشتید، لطفا لینک رو کپی و در مرورگری غیر از کروم باز نمایید. با تشکر
🔽🔽🔽
www.spdss.ir
لینک ورود به سایت
🔹 SPDSS (Social Phobia Decision Support System) |
How to Install Shopware with NGINX and Let's encrypt on Ubuntu 18.04 LTS
shopware نرم افزار متن باز برای تجارت الکترونیک میباشد
برای نصب این برنامه به ترتیب زیر عمل میکنیم
اول timezone کانفیگ میکنیم:
sudo dpkg-reconfigure tzdata
چند تا پکیج اولیه را نصب میکنیم:
sudo apt install -y curl wget vim git unzip socat bash-completion
Step 1 - Install PHP and PHP extensions
ابتدا php را نصب میکنیم همرا پکیج های اولیه:
sudo apt install -y php7.2 php7.2-cli php7.2-fpm php7.2-common php7.2-mysql php7.2-curl php7.2-json php7.2-zip php7.2-gd php7.2-xml php7.2-mbstring php7.2-opcache
Step 2 - Install IonCube Loader (optional)
برای دانلود:
cd /tmp && wget https://downloads.ioncube.com/loader_downloads/ioncube_loaders_lin_x86-64.tar.gz
اکسترکت کردن آن:
tar xfz ioncube_loaders_lin_*.gz
پیدا کردن دیکشنری extensions php:
php -i | grep extension_dir
فرض میکنیم خروجی کامند بالا /usr/lib/php/20170718 باشد
حالا ionCube Loader در فایل بالا کپی میکنیم:
sudo cp /tmp/ioncube/ioncube_loader_lin_7.2.so /usr/lib/php/20170718/
حالا باید در فایل php هم آن را کانفیگ کنیم:
sudo vim /etc/php/7.2/fpm/php.ini
حال در فایل بالا خط زیر به صورت پایین تغییر دهید و آن را ذخیره کنید:
zend_extension = /usr/lib/php/20170718/ioncube_loader_lin_7.2.so
فایل را ذخیره کنید سپس کامند زیر را بزنید:
sudo systemctl restart php7.2-fpm.service
Step 3 - Install MySQL and create a database for Shopware
ابتدا mysql نصب میکنیم:
sudo apt install -y mysql-server
سپس برای امنیت بیشتر mysql اسکریپت زیر نصب میکنیم و رمز روت برای mysql قرار میدهیم:
sudo mysql_secure_installation
سپس به mysql وصل میشویم:
sudo mysql -u root -p
سپس در mysql به ترتیب کامند های زیر را بزنید:
CREATE DATABASE dbname;
GRANT ALL ON dbname.* TO 'username' IDENTIFIED BY 'password';
FLUSH PRIVILEGES;
exit
در کامند های بالا username , password برای shopware انتخاب کنید و آن را به خاطر بسپارید
Step 4 - Install Acme.sh client and obtain Let's Encrypt certificate (optional)
وبسایت https نیاز به امن کردن آن نیست ولی با این حال میتوان آن را امن کرد
با استفاده از acme.sh این کار را انجام میدهیم برای نصب کامند های زیر را وارد کنید:
sudo su - root
git clone https://github.com/Neilpang/acme.sh.git
cd acme.sh
./acme.sh --install --accountemail [email protected]
source ~/.bashrc
cd ~
که در کامند بالا جای ایمیل باید ایمیل خود را وارد کنید
برای گواهینامه تایید و رمزنگاری دامین خود میتوانید از RSA (کامند اول) یا ECC/ECDSA (کامند دوم) استفاده کنید:
acme.sh --issue --standalone -d example.com --keylength 2048
acme.sh --issue --standalone -d example.com --keylength ec-256
For RSA: /home/username/example.com directory
For ECC/ECDSA: /home/username/example.com_ecc directory
خب حالا برای نگهداری مدارک دایرکتوری درست کنید به ترتیب زیر:
mkdir -p /etc/letsecnrypt/example.com
sudo mkdir -p /etc/letsencrypt/example.com_ecc
حال برای RSA (کامند اول) یا ECC (کامند دوم) گواهینامه ها را نصب و کپی کنیم در دیکشنری های بالا:
acme.sh --install-cert -d example.com --cert-file /etc/letsencrypt/example.com/cert.pem --key-file /etc/letsencrypt/example.com/private.key --fullchain-file /etc/letsencrypt/example.com/fullchain.pem --reloadcmd "sudo systemctl reload nginx.service"
acme.sh --install-cert -d example.com --ecc --cert-file /etc/letsencrypt/example.com_ecc/cert.pem --key-file /etc/letsencrypt/example.com_ecc/private.key --fullchain-file /etc/letsencrypt/example.com_ecc/fullchain.pem --reloadcmd "sudo systemctl reload nginx.service"
سپس با دستور exit از حالت روت خارج شوید
❇️ @AI_Python |
Step 5 - Install and configure NGINX
ابتدا آن را نصب کنید:
sudo apt install -y nginx
سپس آن را کانفیگ کنید:
sudo vim /etc/nginx/sites-available/shopware.conf
سپس به فایل بالا خط های زیر اضافه کنید:
server {
listen 80;
listen [::]:80;
server_name example.com;
root /var/www/shopware;
index shopware.php index.php;
location / {
try_files $uri $uri/ /shopware.php$is_args$args;
}
location /recovery/install {
index index.php;
try_files $uri /recovery/install/index.php$is_args$args;
}
location ~ \.php$ {
include snippets/fastcgi-php.conf;
fastcgi_pass unix:/var/run/php/php7.2-fpm.sock;
}
}
در خط های بالا جای example دامین خود را وارد کنید
سپس آن را سیو کنید و خارج شوید و برای فعال کردن آن کامند زیر را بزنید:
sudo ln -s /etc/nginx/sites-available/shopware.conf /etc/nginx/sites-enabled
برای چک کردن ارور syntax کامند زیر را بزنید:
sudo nginx -t
سپس سرویس را ریلود کنید:
sudo systemctl reload nginx.service
Step 6 - Install Shopware
اول دیکشنری روت برای داکیومنتری برنامه ایجاد میکنیم:
sudo mkdir -p /var/www/shopware
سپس owner خودمان ست میکنیم:
sudo chown -R {your_user}:{your_user} /var/www/shopware
که در کامند بالا یوزر خود را وارد میکنید
cd /var/www/shopware
سپس برنامه دانلود میکنیم:
wget https://releases.shopware.com/install_5.5.8_d5bf50630eeaacc6679683e0ab0dcba89498be6d.zip?_ga=2.141661361.269357371.1556739808-1418008019.1556603459 -O shopware.zip
unzip shopware.zip
rm shopware.zip
سپس owner دیکشنری زیر را تغییر میدهیم:
sudo chown -R www-data:www-data /var/www/shopware
memory_limit = 256M and upload_max_filesize = 6M, and set allow_url_fopen = On if not already set in /etc/php/7.2/fpm/php.ini file
در فایل بالا چک کنید اگر موارد گفته شده درست نبود آن را درست و ست کنید
سپس سرویس php را ریلود میکنیم
sudo systemctl reload php7.2-fpm.service
سپس برنامه شما در دامین شما در قسمت زیر می باشد:
http://example.com/backend
❇️ @AI_Python |
Someone ask me “Can you make more beginner friendly learning path”?
Yes, I do, Here’s the path
How to learn data science with python for complete beginner from concept to code
✅ Step 1
Know Data Science
https://lnkd.in/fMHtxYP
✅ Step 2
Understand How to answer Why
https://lnkd.in/f396Dqg
✅ Step 3
Know Machine Learning Key Terminology
https://lnkd.in/fCihY9W
✅ Step 4
Understand Machine Learning Implementation
https://lnkd.in/f5aUbBM
✅ Step 5
Understand the basics of data structures and algorithms
https://lnkd.in/gYKnJWN
✅ Step 6
Do more practice problems in Python
https://lnkd.in/gGQ7cuv
✅ Step 7
Learn the scientific libraries (NumPy, SciPy, Pandas)
Pandas: https://lnkd.in/g4DFNpJ
✅ Step 8
Machine Learning Programming
in 20min: https://lnkd.in/g-Su_um
Scikit-Learn Tutorial: https://lnkd.in/gSThdRD
✅ Step 9
Practice your machine learning skills
Kaggle Machine Learning Tutorial: https://lnkd.in/gT5nNwS
✅ Step 10
Practice advanced library
a.TensorFlow
https://lnkd.in/fXKQkGy
b.Dlib
https://lnkd.in/fzPM2Gs
#machinelearning #datascience #python
✴️ @AI_Python_EN |
@uselinux
Linux For ChromeBooks
💥پارسال گوگل قول داد تا اپلیکیشن های لینوکسی رو برای کروم او اس فراهم کنه:
https://t.me/uselinux/532
✨امسال تو کنفرانس بزرگ io:
(تو لیست دانلود ما شماره 93 - Linux For ChromeBooks)
از امسال تمام کروم بوک ها(chromebook) قادر خواهند بود تا لینوکس(ترمینال/اپلیکیشنها) را اجرا کنند
نیاز به راه اندازی vm و دردسر خاصی نیست . با چند کلیک . (Setup Linux) میتونید لینوکس رو روی کروم بوک داشته باشید
شما با اینکار ترمینال لینوکس رو همراه با apt-get خواهید داشت و همینطور هر اپی نصب کنید توی لانچر و دش کروم او اس قابل رویت خواهد بود براتون.
@uselinux
و اما در پشت پرده چه اتفاقی در حال رخ دادن است؟
تیم کروم بوک/کروم او اس . خودشون لایه ی vm/hypervisor اد کردن به کروم او اس
Termina VM( LXD -> Guest Kernel of Linux )
CrOS ( crosvm -> Host Kernel - Linux )
و در نهایت یک container-host دبیان استرچ(9 اخری تا الان)
لایه های امنیتی خیلی خوب و خاصی هم با Rust دولوپ کردند روی کروم او اس.
و اما درباره امنیت , خیلی تلاش های خوبی کردن. شما هرکاری بکنید روی این لینوکس. نمیتونید کروم او اس رو تخریب کنید . یا دسترسی غیرمجازی رو بهش داشته باشید
@uselinux
خب . فایل ها (پروژه ها / کد ها) رو چطور میشه روی این لینوکس داشت؟
مسلما mount کردن یک دایرکتوری به /mnt/chromeos کار رو سخت میکنه. اما تیم کروم بوک . اینکار رو توی gui/ux تسهیل کردند . و بصورت دیفالت تو فایل منیجر Linux Files در اختیار دارید . و همینطور با راست کلیک روی هر فولدری میتونید با مسئولیت خودتون .اون دایرکتوری رو توی لینوکس share کنید(Share On Linux)
درباره وب سرور ها چطور؟ وب سرور ها میتونن ترافیک رو ارسال و دریافت کنند .. و ریسک track کردن ترافیک و ارسال داده هست .
فعلا شما میتونید با ران کردن وب سرور ها .. و expose پورت ها . بصورت لوکال روی کروم بوک دسترسی پیدا کنید . و فکری برای external shares نشده .
@uselinux
فرض کنید اندروید دولوپر هستید . و میخواهید با متصل کردن گوشی تون . دیباگ .و دولوپ کنید . این چطور ممکن است ؟ درحالی که اگر usbها بصورت پیش فرض فعال و مانت بشن . میتونن اطلاعاتی حیاتی از شما رو آنالیز کنن .. یا malware های خطرناکی به سیستم/لینوکس شما منتقل کنن.
برای حل این مشکل هم . پرمیژن این قسمت بر عهده شماست .. و گزینه share on linux رو در اختیار دارید.
@uselinux
بالاتر گفتیم که این لایه vm بر پایه lxd/lxc هست .. این امکان برای کاربران حرفه ای تر فراهم هست که کانتینر های جدیدی بسازن و همینطور اسنپ شات هم بگیرن 😃
lxc list
snapshot
اسم این پروژه ظاهرا کراستینی(crostini) هست که لینوکس رو بصورت نیتیو روی کروم او اس برای کاربران قابل دسترس کرده .
@uselinux |
@uselinux
🔥یک توزیع دیگر خاموش شد!
Antergos(Arch based Distro)
توزیع انترگوس که انشعابی از آرچ میباشد خاموش شد .
دولوپران اصلی پروژه علت را کمبود وقت ابراز کردند
@uselinux
انترگوس ۹۰۰هزار بار دانلود شده است (در ۵سال اخیر) و قطعا جزو توزیع های پرطرفدار بود
همچنین تیم انترگوس افزود . کاربران انترگوس نگران نباشند . آپدیت های آتی را مستقیم از آرچ(مخازن) دریافت خواهند کرد . همچنین آپدیتی منتشر خواهیم کرد تا تمام پکیج های مخصوص انترگوس را از سیستم آنان پاک کند.
سال 2017 نیز Apricity (آرچ بیس) متوقف شد .
@uselinux
آیا این زنگ خطری برای جامعه آزاد و دیگر توزیع هاست ؟
چندی پیش(حدودا ۲ماه قبل) لیدر لینوکس مینت در پستی ابراز کرد که تیم دولوپران مینت کمی دچار کمبود انگیزه و دچار حس افسردگی شده اند.
@uselinux
و علت آن را نیز عدم ارتباط موثر با کاربران و گرفتن فیدبک های خوب از تلاش های صورت گرفته ابراز کرد .. و افزود: چیزی که باعث افزایش انگیزه دولوپران میشود این است که حسی شبیه به قهرمان داشته باشند . و اگر در راستای چیزی تلاش میکنند . اگر به مقصود مورد نظر نرسند یا ساپورت/حمایت(روحی و..) نشوند دچار نقصان انگیزه خواهند شد
@uselinux
منابع:
https://blog.linuxmint.com/?p=3736
https://betanews.com/2019/05/22/antergos-linux-dead/#comments
@uselinux |
لیست دانشگاه های مطرح در زمینه بینایی کامپیوتر/ماشین
ComputerVision && MachineVision
#بینایی_کامپیوتر #کامپیوترویژن #ماشین_ویژن
USA Universities
🌎 Carnegie Mellon University, Robotics Institute
🌎 University of California Los Angeles
🌎 University of North Carolina at Chapel Hill
🌎 University of Washington
🌎 University of California Berkeley
🌎 Stanford University
🌎Massachusetts Institute of Technology
🌎 Cornell University
🔸 University of Pennsylvania
🔸 University of California Irvine
🔸 Columbia University
🔸 University of Illinois at Urbana-Champaign
🔸 University of Michigan
🔸 University of Southern California
🔸 Princeton University
🔸 University of Rochester
🔸 University of Texas at Austin
🔸 University of Maryland College Park
🔰 Brown University
🔰 University of Central Florida
🔰 New York University
🔰 Michigan State University
🔰 University of Massachusetts, Amherst
🔰 Northwestern University
🔰 University of California San Diego
Universities in Canada:
♻️ University of Alberta
♻️ University of Toronto
♻️ University of British Columbia
♻️ Simon Fraser University
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
لیست دانشگاه های مطرح در زمینه بینایی کامپیوتر/ماشین قسمت دوم
ComputerVision && MachineVision
#بینایی_کامپیوتر #کامپیوترویژن #ماشین_ویژن
Universities in Europe:
🔸INRIA France
🔸 University of Oxford
🔸 ETH Zurich
🔸 Max Planck Institutes, Germany
🔸 University of Edinburgh
🔸 University of Surrey
🔸 University of Freiburg
🔸 KTH Sweden
🔸 TU Dresden
🌎 TU Darmstadt
🌎 EPFL, Switzerland
🌎 KU Leuven
🌎 Computer Vision Center Barcelona
🌎 IDIAP Switzerland
🌎 Imperial College London
🌎 HCI Heidelberg
🌎 University of Manchester
🌎 University of Bonn
🔸 RWTH Aachen University
🔸 University of Amsterdam
🔸 TU Munich
🔸 Czech Technical University
🔸 University of Cambridge
🔸 TU Graz
🔸 IST Austria
🔸 Queen Mary University of London
🔰 University of Zurich
🔰TU Delft
🔰 University of Leeds
🔰 University of Bern
🔰 Lund University
🔰 University of Trento, Italy
♻️ University of Florence, Italy
♻️ University of Stuttgart
♻️ Saarland University
♻️ Ecole Centrale Paris
♻️ Ecole des Ponts ParisTech
♻️ University of Oulu
♻️ Karlsruhe Institute of Technology
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
یک پروژهایی که به تازگی بهم پیشنهاد شد تشخیص یک سری اتفاقات خاص بود (فیلم و دوربین و ...)
راه حلهای زیادی تست شده بود روی این دیتاست و هرکدوم دقتهای خوبی داشت (فکر میکنم تمومی روشهای بادقت خیره کننده موجود تست شده)
اما همچنان نیاز هست که دقت بیشتر از این باشه؛ بخاطر دوستی که با یکی از اعضای این تیم داشتم بهم پیشنهاد شد که به تیم کمک کنم و اگر ایدهایی دارم حتی اگر وقت پیادهسازی ندارم برای تیم شرح بدم تا اعضای اون کد رو پیاده سازی کنند.
همیشه گفتم ؛ اول دیتا رو خوب بشناسید حتی اگر زمان زیادی رو خرجش میکنید (مطمئن باشید پشیمون نمیشید.)
بعد از گرفتن اصل دیتاها و کلی بررسی کردن از گروه خواستم نمونههایی که مدلهاشون درست عمل نمیکنه رو بهم بدند (از دیتای تست و مدلی که پیادهسازی شده برای مشتری و ...)
این کار مشکلی نداره چون من نمیخوام پارامترهای مدل رو تغییر بدم یا تقلب کنم که مدل عملکرد بهتری داشته باشه (جلوتر متوجه میشید)
دلیلم این بود که توی بررسی ۱۰۰ تا از دیتاها به یک نمونه خاص برخوردم که با دیتاهای قبلی تفاوت داشت
توی دیتای تست هم از ۱۰۰ مورد حدود ۳۰ مورد همین حالت بود ؛
بعنوان مثال :
فرض کنید تیم میخواد جاهایی که سگ وجود داره رو تشخیص بده اما تو بعضی از ویدئوها دوربین نقطه کور داره و سگ توی ویدئو دیده نمیشه البته که سگ وجود داره و این لیبلی هست که برای دیتا خورده.
راهکار این نیست که دیتارو حذف کنیم یا دوربین بیشتر بذاریم و محدوده رو بزرگتر کنیم و دوباره دیتا جمع کنیم.
براهکار کم خرج و بهتر چی میتونه باشه ؟؟؟؟؟؟
ی چندبار توجه به لیبل و دیتاها و گرفتن دیتای تست از گروه دقیقاْ برای همین موضوع بود (تا آخر با مثال سگ پیش میرم)
توی یک نمونه دیتایی که من توی داده ترین متوجهاش شدم صدای سگ وجود داشت اما سگی نبود؛ به همین دلیل لیبل دستی که براش زده شده بود سگ داشت اما مدلهای دیپلرنینگ میگفتند سگی وجود نداره و هردو هم درست میگفتند.
کاری که من انجام دادم جدا کردن صداها از ویدئوها بود و دسته بندی کردن بر اساس صداها
درنهایت هم بر اساس ویدئو و هم براساس صدا مدل کارش رو انجام میده ؛ دقت خیلی خیلی بهتر شد و مشکلات حل
برای ترین کردن شبکهایی که استفاده کردم ۲تا دیتاست فوقالعاده پیدا کردم :
1-
https://research.google.com/audioset/
2-
https://urbansounddataset.weebly.com/
حل کردن چالش واقعاْ لذت بخش هست
این راهکار میتونه برای حل مسائل دیگه هم استفاده بشه؛ موضوع و راهکار خوبی برای پایاننامه و مقاله هم میتونه باشه |
#تبلیغاتـدرـکانال ما:
❇️ شرایط، هزینه ها و نحوه خرج شدن پولی که میدید
😬 هزینه تبلیغات در کانال:
▪️به ازای هر ساعت پست آخر ۱۰ هزار تومان
▪️به ازای هر هزار بازدید ۱۵ هزار تومان
▪️پست آخر و پین ۱۲ ساعت (از ساعت ۱۱ شب تا ۱۱ صبح) ۵۰ هزار تومان
😬 شرایط تبلیغ در کانال:
🔆 پیش از تبلیغ حتما پست مورد نظرتان را در یک پیام به آی دی @MeysamAsgariC ارسال کنید تا محتوای آن بررسی شود.
🔆 محتوای شامل موارد نقض حقوق کپی رایت، تبلیغات فیک و موضوعات سیاسی-مذهبی را نشر نمیدهیم.
😎 شرایط ویژه:
🌱 میتوانید به عنوان حامی کانال ما خودتان را ثبت کنید.
🌱 پرداخت هزینه ماهیانه ۱۰۰ هزار تومان باعث میشود که یک ماه حامی کانال ما شوید و ۲۵٪ تخفیف ویژه برخوردار شوید.
🤓 شرایط ویژه تر:
⚠️ اگر مطب جالبی در کانال خودتون درج کردید که فکر میکنید مهمه و جالبه و مرتبط هم هست بدید ما فوروارد میکنیم بدون هیچ چشم داشتی.
⚠️ اگر کسب و کار کوچکی دارید و تازه شروع کردید و هزینه تبلیغات رو نمیتونین بدید مهم نیست ما مجانی تبلیغ میکنیم فقط در گروههامون نزنید و اسپم نکنید.
🤔 پولی که برای تبلیغ میدید چی میشه؟ کجا خرج میشه؟
▪️هزینه ای که برای تبلیغات پرداخت میکنید تماما (به علاوه هزینه ای که ادمینها از جیب خودشون میزارند) به حساب بنیاد کودک جهت حمایت از کودکان نیازمندی که میخواهند به تحصیل ادامه بدند واریز میشود.
لینک بنیاد کودک
#تبلیغاتـدرـکانال
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
شرکت داده پردازی امن پارتاک، فعال در حوزه توسعه راهکارهای امنیت اطلاعات و تست نفوذ و خدمات نرم افزاری و شبکه، در ردیف های شغلی ذیل اقدام به جذب نیرو می نماید:
1. برنامه نویس web application و mobile application
• تسلط به برنامه نویسی php , node.js
• آشنایی با برنامه نویسی java و swift
• آشنایی با کتابخانه ی React
• تسلط کامل به مفاهیم مرتبط با مدیریت حافظه، Thread ، Socket
• مسلط به Object Oriented
2. کارشناس تست نفوذ web , network , mobile applications
• تسلط کامل بر مفاهیم #تست_نفوذ و راهکارهای نفوذ web , network , mobile applications ، بر اساس سرفصل های تعریف شده در SANS , EC-Council , OWASP و سایر استانداردهای رایج تست نفوذ
• تسلط بر ابزارهای ارزیابی امنیتی و تست نفوذ شامل سیستم عامل ها، اپلیکیشن ها و تکنیک ها
• تسلط بر مفاهیم پایه ای شبکه و امنیت اطلاعات
3. برنامه نویس حرفه ای
• تسلط به زبان های python و cpp و csharp
• تسلط کامل به مفاهیم مرتبط با مدیریت حافظه، Thread ، Socket
• مسلط به Object Oriented و برنامه نویسی تحت سیستم عامل
• آشنایی با Windows API و Kernel Debugging نیز امتیاز محسوب می شود.
4. کارشناس شبکه و امنیت
• تسلط به مباحث شبکه و امنیت شبکه
• دانش شبکه و امنیت CCNP R&S - CCNP Security
و بالاتر
• تسلط به تجهیزات امنیتی حداقل 3 برند تجاری و آمادگی برای یادگیری در صورت نیاز
✅ تسلط به زبان انگلیسی و متون تخصصی حوزه IT در همه موارد امتیاز محسوب میشود.
✅ دارای روحیه کار تیمی، توان حل مساله، دارای توان بالای یادگیری، پایبند به اصول اخلاقی
ارسال رزومه:
http://partaksdp.com
#فرصت_همکاری
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
چهارمین مرحله جذب نیروی امریه سربازی وزارت ارتباطات و فناوری اطلاعات از روز شنبه 11 خردادماه سال جاری آغاز می شود به گزارش مرکز روابط عمومی و اطلاع رسانی وزارت ارتباطات و فناوری اطلاعات، چهارمین مرحله جذب نیروی امریه سربازی در وزارت ارتباطات از روز شنبه 11 خرداد ماه آغاز می شود.
افراد با تحصیلات کارشناسی ارشد و دکترا قابلیت شرکت در این مرحله از جذب را دارا هستند و با توجه به نیازمندی های پرسنلی ستاد و دستگاه های تابعه وزارت، رشته های تحصیلی حقوق، اقتصاد، علوم اجتماعی، مخابرات، کامپیوتر، فناوری اطلاعات، امنیت فضای سایبری، مهندسی برق، بیوانفورماتیک در مقاطع فوق الذکر، در این مرحله از فراخوان نیروهای امریه جذب می شوند.
وزارت ارتباطات از میان فارغ التحصیلان واجد شرایط در رشته های فوق نیروهای امریه سربازی را انتخاب می کند.
متقاضیان می توانند همه مراحل ثبت نام، ارزیابی، پیگیری و پایش را از طریق سامانه مستقر در سایت وزارت ارتباطات و فناوری اطلاعات دنبال کنند.
افراد متقاضی می توانند برای ثبت نام از ساعت 10 صبح 11 خرداد ماه تا 12 ظهر 18 خرداد اقدام کنند.
متقاضیان برای کسب اطلاعات بیشتر به آدرس زیر مراجعه کنند:
http://amrieh.ict.gov.ir/SitePages/Home.aspx |
شبکه های عصبی، رفتار و عملکرد مغز انسان را تقلید میکنند. این شبکه ها شامل الگوریتم هایی هستند که می توانند یاد بگیرند که به طور مثال رفتار مغز را در شناسایی گفتار و تصاویر تقلید کنند. با این حال، باید دانست که راه اندازی یک شبکه عصبی مصنوعی به زمان و انرژی زیادی احتیاج دارد.
محققان مرکز ملی تحقیقات علمی در پاریس، دانشگاه Bordeaux و کمپانی Evry، یک سیناپس مصنوعی به نام memristor را طراحی و ساخته اند و آن را مستقیما روی یک chip قرار داده اند. این نوع آوری راه را برای سیستم های هوشمند هموار خواهد کرد؛ سیستم هایی که نیاز به انرژی و زمان کمتری برای یادگیری داشته و میتوانند به صورت خودکار یاد بگیرند.
این سیناپس مصنوعی چطور کار میکند؟
در مغز انسان، سیناپس ها به عنوان پایانه های ارتباطی بین نورون ها عمل میکنند. هر چه بیشتر از این سیناپس ها استفاده شوند (مورد تحریک بیشتری قرار بگیرند)، ارتباطات قوی تر شده و یادگیری سریعتر میشود. memristor نیز به همین شیوه کار میکند. این سیناپس مصنوعی از یک لایه ی نازک فِروالکتریک ساخته شده است که میتواند خود به خود باردار شود و بین دو الکترود قرار گرفته است. میزان مقاومت آنها میتواند با استفاده از پالس های ولتاژ تنظیم شود (مانند آنچه در نورون های طبیعی رخ میدهد). ارتباط سیناپسی، زمانی که مقاومت پایین باشد، قوی خواهد بود و بالعکس. در واقع، ظرفیت یادگیری memristor بر اساس همین مقاومتِ قابل تنظیم، تعیین میشود.
شبکه های عصبی کنونی که با الگوریتم های یادگیری ساخته میشوند، در حال حاضر توانایی اجرای وظایفی را دارند که سیستم های قبلی نداشتند. برای مثال، سیستم های هوشمند کنونی توانایی ساخت موسیقی، بازی کردن، شکست بازیکنان انسانی و حتی می توانند مالیات های شما را پرداخت کنند. برخی از آنها قادرند تا رفتارهای مرتبط با افکار خودکشی در انسان ها را تشخیص دهند یا تشخیص دهند انجام چه کاری قانونی یا غیر قانونی است.
تمامی پیشرفت های ذکر شده را مدیون قابلیت یادگیری سیستم های هوش مصنوعی هستیم. تنها محدودیت موجود زمان و میزان داده ای است که باید برای یک سیستم هوشمند صرف شود تا به بهره برداری مناسبی برسد. با وجود طراحی memristor فرآیند یادگیری به طور چشم گیری افزایش خواهد یافت. البته کار بر روی این سیناپس ادامه دارد و هدف بعدی، ارتقاء آن برای عملکرد سریعتر و بهتر خواهد بود. نتایج تحقیقات این تیم تحقیقاتی در ژورنال Nature Communication به چاپ رسیده است.
#machinelearning #artificialintelligence #neural #network #memristor #brain
@pythonicAI |
16 منبع آموزشی الگوریتمهای هوش مصنوعی〰️〰️〰️
♾ 1. Speech and Language Processing by Dan Jurafsky and James Martin
🔊 2. Deep Learning for Natural Language Processing by Richard Socher (Stanford University)
🔔 3. Natural Language Processing (NLP) by Microsoft
🔸 4. Andrew Ng’s course on Machine Learning
🔸 5. The video lectures and resources for Stanford’s Natural Language Processing with Deep Learning
🔰 Part 2
🔹6. Sequence Models for Time Series and Natural Language Processing
🔺 7. Deep Natural Language Processing course offered in Hilary Term 2017 at the University of Oxford.
🔺 8. Natural Language Processing Fundamentals in Python by Datacamp
🔺 9 Natural Language Processing by Higher School of Economics
🔸 10 How to Build a Chatbot Without Coding by IBM
🔸 11. CS 388: Natural Language Processing by University of Texas
🔸 12. Natural Language Processing with Python
⚡️ 13. CSEP 517: Natural Language Processing by University of Washington
🔰 14. Dan Jurafsky & Chris Manning: Natural Language Processing
📘 15. NATURAL LANGUAGE PROCESSING by Carnegie Mellon University
📘 16. CS224n: Natural Language Processing with Deep Learning by Stanford University
#منابع #یادگیری_ماشین #فیلم #کلاس_آموزشی #الگوریتمها #پردازش_زبان_طبیعی #هوش_مصنوعی #یادگیری_عمیق
join👇👇👇
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
how to get bitcoin
اکثر افراد از طریق ماین کردن بیت کوین به دست می آورند من اینبار یک روشی از طریق بازدید سایت و گرفتن بیت کوین می باشد که راحت تر است
در مرحله اول در سایت زیر ثبت نام کنید که در واقع به عنوان بانک شما می باشد و هر مقدار از سایت ها برداشت کنید وارد این سایت میشود:
https://coinpot.co/
سپس وارد سایت های زیر میشود و دقت کنید از همان جیمیلی ثبت نام کنید که در سایت بالا ثبت نام کردید و هر پنج دقیقه یک بار شما میتوانید برداشت داشته باشید
سایت اول:(بیت کوین)
yon.ir/mswcO
سایت دوم:(بیت کوین)
yon.ir/4skps
سایت سوم:(بیت کوین)
yon.ir/tx2Ke
سایت چهارم:(bitcoin cash)
yon.ir/5I2iJ
سایت پنجم:(litecoin)
yon.ir/vMoaM
سایت ششم:(dogecoin)
yon.ir/o3jG4
سایت هفتم:(dash)
yon.ir/P6XVj
۶تا از این سایت ها هر پنج دقیقه یک بار میتوانید برداشت کنید و پیشنهاد میکنم که اینکار کنید زیرا هر بار که شما برداشت کنید سایت به شما سه تا coinpot tokens میدهد که ارزش خیلی خوبی دارد
و در آخر برای تبدیل کردن هر ارزی به ارزی دیگر یک فلش در کنارش هست به اسم convert روی آن کلیک کنید و به هر ۵ ارز موجود تبدیل کنید و برای برداشت گزینه withdraw کلیک کنید و اگر هر کدام از سایت های بالا ارور داد کش مرورگر خود را پاک کنید
در آخر اگر سوالی در این مورد داشتید میتوانید به ایدی من پیام بدهید:
@pperfect
❇️ @AI_Python |
سلام،
می خواهیم همه المان های زیست بوم استارتاپی ایران شامل استارتاپ ها، صندوق های سرمایه گذاری خطر پذیر، فرشته و سرمایه گذاران شخصی، کار آفرینان، مشاوران، ارائه کنندگان فضای کار اشتراکی، شرکت های فن آور و دانش بنیان و اهالی رسانه های استارتاپ محور را کنار هم جمع کنیم تا هم آموزش و اخبارهای این حوزه را پوشش دهیم و در کنار یکدیگر اصول و مفاهیم استارتاپی و اقتصاد حول آنها را بیشتر یاد بگیریم و هم بستری برای ارتباط موثرتر و راحت تری این المان ها با یکدیگر ایجاد کنیم. ان شالله که این حرکت به پیدایش و رشد بیشتر استارتاپ های موفق در ایران منجر شود.
با همین رویکرد کانال "زیستارتاپ" که مخفف "زیست بوم استارتاپی" می باشد، راه اندازی شد:
💎 @zistartup 💎
🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶
اطلاعات این کانال از طریق تعدادی هشتگ برچسب دار می شود تا اطلاعات کانال از بین نرود و بتوان در مواردی نیاز اطلاعات را بازیابی کرد و برای آینده مجموعه خوبی از اطلاعات همه بازیگران عرصه زیست بوم استارتاپی ایران را در اینجا جمع و آرشیو کرد. مثلا اگر فردی دنبال یک سرمایه گذار فرشته میگردد می تواند با جستجوی #angle_vc آن سرمایه گذار را پیدا کند و یا سرمایه گذاری دنبال استارتاپ ها یا ایده های حوزه IoT میگردد، در اینجا میتواند با جستجوی همزمان هشتگ های #iot و #start_up یا #startup_idea همه آن موارد را پیدا کند.
🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶🔶
هشتگ ها فعلا عبارتند از:
#startup
#vc
#angle_vc
#personal_investor
#accelerator
#mentor
#entrepreneur
#media
#event
#job
#rfp
#book
#podcast
#ted_talk
#news
و در هر مورد زمینه فعالیت به صورت کامل (در صورتی که مخفف مشهوری دارد به صورت کوتاه و مخفف) و در صورت چند کلمه ای بودن با زیرخط از هم جدا می شوند مثلا:
#electronics_telecommunication
#it_ict
#ai
#iot
#healthcare
در پست های با هشتگ #start_up به معرفی استارتاپ هامی پردازیم. یک بخش هم به مرور استارتاپ های خارجی مخصوصا در سیلیکون ولی می پردازیم تا از دوستان شاید کسی مشتاق شد که یکی از آن ایده ها را در ایران دنبال کند و هشتگ آن هست:
#strartup_idea
☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️
ضمنا دست هر یک از دوستانی که در تهیه یا ارسال محتوا نظیر معرفی استارتاپ ها، صندوق های خطر پذیر، اخبار، پادکست های آموزشی، موقعیت های شغلی و .... به ما کمک کنند را به گرمی می فشاریم.
☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️☯️ |
#خارجـازـبحث
یه چندساعتی میشه خبر اندروید ملی رو میشنویم :
متن خبر :
در حالیکه شرکت هواوی در حال توسعه نسخه خاص سیستم عامل خود بر پایه اندروید است ایران هم اعلام کرده قصد توسعه «اندروید ملی» را دارد.
من ی چندتا نکته رو بگم :
۱- چندین و چندسال هزینه شد برای سیستمعامل ملی آخرشم گفتن شکست خورد
۲- این پروژه کلاْ شکست خوردهاس؛ شرکتی مثل هواوی یکی از بزرگترین عرضه کنندههای تلفن همراه هست که مارکت بسیار بزرگی هم داره و قراره برای سختافزار خودش هم نرمافزار ارائه کنه
۳- توی ایران شرکت تولید کننده سختافزار ؛ و یا حتی اسمبل کردن و تولید تلفن همراه مطرحی دیده نمیشه (شاید جیالایکس) که به لطف تحریمها و فشارهای اقتصادی و قیمت بالای گوشیهمراه برخی از مردم محروم ؛ محکوم به خریدش هستند
۴- خیلی از شرکتها تغییر رام - روت شدن تلفن همراه و ... رو حذف گارانتی تلقی میکنند؛ چه برسه تغییر کامل سیستمعامل
۵- پشتیبانی و ارسال آپدیت و ... برای این همه مدل گوشی کار سادهایی نیست و هزینه گزافی هم داره (بخش خصوصی و شرکتهای تولید کننده موبایلها هم پشتیبانی طولانی مدتی ندارند)
۶- یکی از دوستان اشاره کرد؛ امنیت ملی - و سران مملکتی و جاسوسی؛ آیا عاقلانهاس تو شرایط بد اقتصادی موجود میلیاردها تومان پول صرف پروژهایی بشه که فقط یک عده خاص استفاده خواهند کرد به نظرم یه برنامه ارتباطی ابنکریپت شده راهحل کم خرجتر و عملی تری هست
از ته قلبم امیدوارم یک دروغ و یک شایعه باشه این موضوع
اگر نه : امیدوارم تصمیمگیران مملکت یک تجدید نظر کنن
در نهایت باید بگم : این پروژه شکست خورده هست و باید دید چه شرکت و چه افرادی قراره با این پروژه پول مردم رو به جیب بزنن |
دومین رویداد ملی بهار کارآفرینان استارتاپی هدفش توسعه فضای اکوسیستم
کار آفرینی استارتاپی است.
رامین اکبری ،ریاست دومین رویداد ملی بهار کارآفرینان استارتاپی گفت: رویدادهای استارتاپی هر کدام به شکل متفاوتی طراحی شدهاند و هریک به نحوی در پیشرفت اکوسیستم شهری و شبکه سازی بین فعالان این حوزه موثر هستند، بهار کارآفرینان استارتاپی نیز این هدف را دنبال می کند و اولین هدفمان توسعه فضای اکوسیستم کار آفرینی استارتاپی می باشد.
بنیانگذار بهار کارآفرینان استارتاپی رامین اکبری گفت: دومین رویداد ، که یک رویداد کارآفرینی بود، با حضور بنیان گذاران استارت آپ های موفق کشور و استانی در تبریز به همراه پنل استارت آپ های موفق که با استقبال بی شماری ازعلاقه مندان به مباحث کارآفرینی و استارتاپی برگزار شد، در دومین دوره از این رویداد با تلاش تیم اجرایی ۵۰ نفره که مدت ۷ ماه زمان گذاشته بودند با استقبال ۸۰۰ نفر از فعالان (کارآفرین – استارتاپ – دانشجویان – اتاق بازرگانی و... ) در تالار وحدت دانشگاه تبریز برگزار شد.
در دومین رویداد ملی بهار کارآفرینان استارتاپی 5 تیر روز چهارشنبه در تالار وحدت دانشگاه تبریز، با سخنرانی بنیان گذاران: علی بابا ( مجید حسینی نژاد ) دیجی نلا ( آرش ماهوتی ) بیمیتو (حامد ولی پورd ) مجتبی محمودزاده ( رایچت ) شهرام اشرف نیا (قونقا ) علی حاج محمدی ( ژاکت و وردپرس )صندلی داغ با رضا اربابیان بنیانگذار شپیور و پنل استارتاپهای موفق تبریز( چهار استارتاپ تبریز به تایید شورای سیاست گذاری رویداد با اجرای مهندس عباس باغبان برگزار شد. همچنین برای اولین بار نمایشگاه کار در دومین رویداد ملی بهارکارآفرینان استارتاپی برگزار شد. محل مناسبی برای ملاقات بی واسطه و مستقیم بین کارجویان و کارفرمایان شد. که تعدادی از کارجویان جذب شرکتها شدن.
ایشان اشاره کردند که حضور بنیان گذاران و کارآفرینان موفق سبب شد که شاهد محتوای غنی با سطح کیفی بالا باشیم . که شبکه سازی یک مهارت عمده و مهم در زندگی و کسب و کار بحساب می آید و از این مهارت می توان در امور تجاری، سازمانی و شخصی استفاده نمود.
تشکر ویژه از اسپانسرهای محترم دومین رویداد ملی بهار کارآفرینان استارتاپی ، جناب آقای “دکتر امین اسدلله پور” بنیانگذار مرکز علوم اعصاب و روانشناسی سایبر www.cyberneuro.com و مدیرعامل محترم شرکت دیدچی “جناب آقای مهندس سهند سالمی” www.deedchi.com و همه مشارکت کنندگان بزرگوار که در برگزاری این رویداد مارا یاری نمودند. سپاسگذارم.
و تمامی عزیزان مشارکت کننده در رویداد می توانند گزارش ها ، تصاویر و اخبار رویداد رو از طریق شبکه ها اجتماعی بهار کارآفرینان استارتاپی و یا سایت www.bkstartupi.com رویداد با خبر شوند. |
#اندر_حکایت #کاریابی #کارآموزی #استخدام #سوپرمن #hero
بر انجام این کار(آگهی) نیاز به یک سوپرمن (مردآهنی -مردعنکبوتی - در بهترین حالت مستر روبات)داریم
✴️ @AI_Python_EN
❇️ @AI_Python
🗣 @AI_Python_arXiv
در نگاه اول شاید این متن فکاهی و طنز جلوه نماید ولی مدتی ایست که بنده به حکم اجبار و گاها برای بررسی بازار کار رشته ی نرم افزار و تخصصا برنامه نویسی پایتون به سایت های کاریابی و اگهی های استخدام معروف (جاویژن-جاب اینجا-ایران تلنت-آی استخدام-وغیره)مراجعه کردم و اگر شما خواننده گرامی هم از متخصصان این حوزه باشید میتوانید به منظور بنده از جمله ی اول در این شبه مقاله پی ببرید که توقعات کارفرماها به سمت غیر واقعی پیش میرود
خوشبختانه اخیرا شاهد تخصص گرایی در زمینه استخدام برنامه نویس هستیم اما متاسفانه شاهد مسائلی هستیم که کم هم نیست ولی بنده در اینجا قصد دارم به سه نکته مهم از دیدگاه اینجانب بسنده کنم
نکته ی اول که بسیار حائز اهمیت است عدم تمایل شرکت ها به جذب کارآموز هست و ترجیح شرکت های به سمت جذب برنامه نویس های سطح بالا (برنامه نویس ارشد با سابقه ی بالای ۵ سال) و برخی از شرکت هایی هم که به جذب کارآموزی اقدام کردند یا از سر ناآگاهی و یا آگاهانه معیارهای سنجش بسیار بالایی را برای کارآموزی های خود اعمال می نمایند (اگر چه این موضوع در استخدام هم رایج شده که در ادامه به این موضوع پرداخته خواهد شد) من شاهد این هستم که اکثرا در آگهی های خود به این نکته اشاره میکنند که کارآموز باید تسلط کامل تاکید میکنم کامل به زبان x و یا فریم ورک y ویا تکنولوژی و کتابخانه های z داشته باشند(برای مثال جنگو ۲ یا مباحث ماشین لرنینگ و دیپ لرنینگ) و در اینجا این سوال پیش می آید اگر بنده در مقام کارآموزی تسلط کامل به آنها دارم پس چرا باید برای آگهی کارآموزی این شرکت اپلای کنم و مسلما ترجیح میدهم برای اگهی های استخدامی دیگر در این زمینه اقدام کنم نکته ی دومی که شاهد آن هستم برخی از شرکت ها ابزاری را نام میبرند که به ندرت از آن استفاده میشود و واژه تسط کامل هم اینجا قید میشود (برای مثال جنگو چنل برای برنامه نویسی سوکت در جنگو هست ولی حداقل بنده بعد از ۲ سال کار در زمینه جنگو فقط یک بار به استفاده از این کتابخونه اقدام کردم ) در صورتی که واژه ها و معیار ها عملا فرآیند کارآموزی به معنی واقعی خود را زیر سوال میبرند و کاآموز قرار است در کنار شما به فرآیند حرفه ایی و ابزارهای متفاوت و متدولوژی های معروف تسلط پیدا کند و از این رو این #سوال در ذهن شکل میگیرد این شرکتها ایا به دنبال استسمار(با حقوق ناچیز و گاها بدون هیچ درآمدی) برنامه نویسان مسلط هستند و ما به اذای آن فقط سابقه ی کار به شما هدیه میکنند ????
در اینجا به دوستانی که علاقه ایی ندارند در معرض اینگونه سوء استفاده ها قرار بگیرند پیشنهاد میکنم به قرار دادن کد در گیت هاب و ساخت یک اکانت قوی در آن و لیکندین رو بیاورند و تن به این مسئله ندهند اگر واقعا خود را لایق شرایط بهتر میدانند
و اما #سخنی با #مدیران فنی و #برنامه نویسان #ارشد عزیزی که قصد جذب #کارآموز دارند:دوستان گرامی شما نه تنها با جذب کارآموز به رشد و اعتلای شرکت خود اقدام خواهید کرد بلکه به رشد جامعه برنامه نویسی #کشور و #تامین نیروی #متخصص در این زمینه هم کمک خواهید کرد و این مسئله بسیار مهم تر از مسائل مادی زود گذر است و نوعی خدمت به وطن تلقی خواهد شد ولذا از شما خواهشمندم در فرآیند جذب و آموزش کارآموز صبر و عطوفت بیشتر را در پیش بگیرید و فقط مسائل و منافع مادی و مالی شرکت خود را (که مثلا برای جذب ۲-۳ کارآموز واقعا ناچیز است)کمتر در دستور کارخود قرار دهید
✴️ @AI_Python_EN
❇️ @AI_Python
🗣 @AI_Python_arXiv
#نکته ی #دوم که باعث شد برای این شبه مقاله #تیتر فوق را در نظر بگیر سقف غیر واقع بینانه ی مهارت های برنامه نویسان پایتون در کشور است برای مثال وقتی به یک آگهی با حقوق ۳-۴ میلیون مراجعه میکنید حداقل ۶-۷ مهارت را باید در نظر داشته باشید (برای مثال جنگو را باید بلد باشند مانگو را باید بلد باشند گیت بعلاوه rest full api را بلد باشند یک پایگاه داده رابطه ای را بلد باشند به مسائل x و y و z آشنا باشند بعلاوه تجربه ی dev'ops هم داشته باشند با سابقه ی 4 سال کار در سمت مشابه ، امنیت و نفود هم اشنا باشه هیچ لینوکس هم پیشرفته بلد باشه آخه برادر عزیز اینایی که شما میگی حداقل طرف ۵-۶ سال کار کرده باشه 😁 بعدشم حالا بماند کلا جنگو۲ شاید ۵ سال نباشه که عرضه شده😁 الان بازار کار جوامع کامپیوتری ما الخصوص پایتون جوانان هستند شما سربازی و دانشگاه و اینارو هم بزاری بقل سابقه ی کار، مشترک مورد نظر شما حداقل باید ۳۵ سالش باشه تو اگهی ات هم میزنی حداکثر سن۳۰ سوپرمن میخوای مگه عزیزمن؟؟ 😕😐 ببخشید دیگ رسمی نمیشد اینارو توضیح داد) |
#قسمت #دوم
همچنین استفاده از کلمات غیرفنی و تخصصی ایست که واقعا زیبنده ی این آگهی ها نیست
✴ @AI_Python_EN
❇ @AI_Python
🗣 @AI_Python_arXiv
اما نکته ی سوم :
حقیقتا بعد از بررسی آگهی ها به آزمون های استخدامی میرسیم دوستان عزیز واقعا اینکه شما یک سری متون و سوالات سطح پایین(ریاضی صرف) و گاها کاملا اکادمیت (مثل مسائل فیبوناچی وغیره ) را به صورت encode x64 برای کارآموز های خود ارسال کنید نشان از سطح حرفه ایی بودن سازمان و شرکت شما نمیدهد بلکه برعکس یاعث سلب انگیزه از متقاضیان کار هست مثال عرضه شده کاملا عینی بوده برای نویسنده اتفاق افتاده است و در مصاحبه فنی جایی دیگر متاسفانه فرق ریجیکس و دیپ لرنینگ را نمیدانستند و یا از برنامه نویس جنگو توقع تجربه dev'ops وتسلط بر امنیت داشتند یک برنامه نویس با سطح آشنایی متوسط و پیشرفته از شما توقع دارد در مصاحبه ی فنی شما از مسائل فنی که در دنیای واقعی با آنها سروکار دارند سوال بپرسید و نمونه کدهای آنها را بررسی کنید نه در مورد مسائلی که هرگز اتفاق نمی افتد لذا مجدد خواهشم قبل از آزمون فنی رزمه افراد دعوت شده را برای هر فرد جدا بررسی و بر اساس آن مصاحبه انجام دهید (می توانید از برنامه ها و ide های انلاین coding که برای ازمون های انلاین هست استفاده نماید در صورت مصاحبه از راه دور )
البته ناگفته نماند که عزیزان ما در زمینه برنامه نویسی در حال رشد بسیارخوبی هستند اما امید آن است عزیزان فعال درتمامی رشته های علوم کامپیوتر نسبت به تسریع و کمک به سرعت گرفتن این چرخه اقدام نمایند
با آرزوی بهترین ها برای تمام نوآموزان عرصه ی کامپیوتر و متخصصان عزیز و مدیران محترم در شرکت های دولتی و خصوصی
author: @majid199372 / @majid_aghamohammad
✴ @AI_Python_EN
❇ @AI_Python
🗣 @AI_Python_arXiv |
#منبع #پایتون #یادگیری_ماشین
سلام. تو این مقطع که مبانی پایتون با دیتاساینس را میدونید اکیدا توصیه میکنم حتما کنفرانس های سال های مختلف SciPy را ببینید. مختصر و عالیه. همچنین pyconها هم میتونه مفید باشه
اولین فیلم برای سال 2017 و یه کم قدیمیه، اما ارائه دهندش Muellerه، توسعه دهنده اصلی scikit learn برا همین خیلی توصیه میکنم ببینیدش.
Machine Learning with scikit learn | SciPy 2017 Tutorial | Andreas Mueller & Alexandre Gram
Part I:
https://www.youtube.com/watch?v=2kT6QOVSgSg
Part II:
https://www.youtube.com/watch?v=WLYzSas511I
Machine Learning with Scikit-Learn, Part 1 | SciPy 2018 Tutorial | Lemaitre and Grisel
Part I:
https://www.youtube.com/watch?v=4PXAztQtoTg&feature=youtu.be
Part II:
https://www.youtube.com/watch?v=gK43gtGh49o
SciPy 2019: Scientific Computing with Python Conference
https://www.youtube.com/playlist?list=PLYx7XA2nY5GcDQblpQ_M1V3PQPoLWiDAC
Chalmer Lowe - Scikit-learn, wrapping your head around machine learning - PyCon 2019
https://www.youtube.com/watch?v=kTdt0P0e3Qc
Deepak K Gupta - Hello World of Machine Learning Using Scikit Learn - PyCon 2019
https://www.youtube.com/watch?v=bCDcI8SdjD8 |
پروفسور مایکل جردن :انقلاب واقعی هوش مصنوعی هنوز رخ نداده است!
یادگیری ماشین معادل هوش مصنوعی نیست !
---------------------------------------------
مایکل جردن دانشمند معروف جهان هوش مصنوعی اعتقاد دارد آنچه امروزه به نام انقلاب نوین هوش مصنوعی معرفی میشود در واقع نه هوش مصنوعی واقعی بلکه تنها یادگیری ماشین است و بین هوش مصنوعی ویادگیری تفاوت وجود دارد!
--------------------------------------------
"اختصاصی از کانال پردازش هوشمند آراد "
به عقیده پروفسور جردن آنچه امروزه در اخبار درباره پیشرفت های هوش مصنوعی می بینیم غالبا برچسبی یادگیری ماشین را با خود دارند .یادگیری ماشین الگوریتم هایی برای پردازش داده ها با الهام از روش های آماری و علوم کامپیوتری به منظور پیش بینی وتصمیم گیری بوده است .در حالی هدف هوش مصنوعی تولید موجودیتی بوده است که حداقل از جنبه ذهنی مانند انسان باشد .الگوریتم های یادگیری ماشین روی مدل سازی فرایند های تصمیم گیری در سطوح پایین تمرکز دارند در حالی که هدف هوش مصنوعی مدل سازی فرایند های تصمیم گیری در سطوح بالاست.یعنی باز تولید فرایند های شناختی و فکری انسان در حالی که یادگیری ماشین امروزه بیشتر مبتنی بر شناسایی آماری الگو ها و انجام تخمین ها متمرکز است.
--------------------------------------
مشاهده اصل مقاله :
https://hdsr.mitpress.mit.edu/pub/wot7mkc1
--------------------------------------
#کوانتم #یادگیری_ماشین #یادگیری_ماشین_کوانتومی
#پردازش_هوشمند_آراد #یادگیری_ماشین #هوش_مصنوعی
#محاسبات_کوانتومی #یادگیری_عمیق
#Michael I. Jordan
❇️ @AI_Python
✴️ @AI_Python_EN |
زمستان هوش مصنوعی
بخش چهارم - زمستان دوم
در دهه 80 و پس از فروکش کردن زمستان اول، عصر جدیدی از AI پا به عرصه ظهور گذاشت. اینبار پیدایش «سیستمهای خِبره» یا Expert Systems بود که هوش مصنوعی را بر سر زبانها میانداخت. شکلگیری این سیستمها، یک گام در مسیر درست بود. مسیری که AI را دوباره به حل مسائل و چالشهای واقعی نزدیک می کرد. نکته این بود که این بار برخلاف دوره قبل که جامعه هوش مصنوعی در تلاش بود تا با تقلید از مدل ذهن آدمها در فرایند حل مساله، به یک AI همهمنظوره و مافوق بشر دست پیدا کنند، سیستمهای خبره بر روی حل مسائل خاص منظوره تمرکز داشتند. این سیستمها در «برنامه ریزی مالی»، «تشخیص بیماریها»، «اکتشافات زمین شناسی» و «طراحی مدارهای میکروالکترونیک» پیاده سازی شدند و موفقیتهای چشمگیری نیز به دست آوردند.
یکی از نمونه های معروف این سیستمها Mycin نام داشت. سیستمی که برای «تشخیص باکتریهای عامل عفونت» طراحی شده بود و خروجیِ آن، تجویز آنتیبیوتیک با دُز مناسب با توجه به ویژگیهای بیمار (مانند وزن و...) بود. bit.ly/31R2gi3
(قبلا در مطلبی با عنوان «هوش مصنوعی به کجا می رود؟» هم به این سیستمها اشاره کرده بودیم)
t.me/zankoo_ai/83
خلاصه با سیستمهای خبره، نه تنها دوباره سازمانهای دولتی بلکه این بار شرکتهای خصوصی هم متقاعد شدند که در پروژههای تحقیقاتی هوش مصنوعی سرمایه گذاری کنند. اما طولی نکشید که همان عارضهی قبلی بروز کرد: وعدههای بزرگ و غیرواقع بینانهی پژوهشگران به مثابه حبابهایی دوباره رشد کردند. از سوی دیگر هم، ترس از رشد سریع شرکتهای فناوری و تسخیر بازار، جلوی توسعهی هوش را میگرفت.
در این میان، رسانهها هم در این حباب میدمیدند. تعدادی کنفرانس بزرگ مثل AAAI در این دوران شکل گرفت. آنقدر این کنفرانسها مخاطب و هوادار پیدا کرده بود که بلیتهایشان خیلی سریع به فروش میرفت. مجله بلومبرگ تیتر زده بود که «هوش مصنوعی همینجاست». تبلیغات شرکتهای هوش مصنوعی هم جالب بود، مثلا «ما یک ذهن برتر ساخته ایم»یا عبارات اغراق آمیزی که همگی از کمبود یک تصویر درست از تواناییها و محدودیتهای محصولات AI حکایت داشت.
در سال 1984، Marvin Minsky از پیشگامان AI و از بازماندگان زمستان اول، راجع به وقوع یک بحران دیگر هشدار داد. در جریان کنفرانس AAAI، میز گردی تشکیل شد با عنوان: «عصر تاریک AI. آیا میتوانیم از آن پیشگیری کنیم یا نجات پیدا کنیم؟»
در جریان میزگرد، پروفسور Drew McDermott به این اشاره کرد که "انتظارات از AI بالا رفته و ممکن است دوباره به یک فاجعه دیگر منجر شود."
"بیایید بدترین حالت ممکن را در نظر بگیریم، فرض کنیم در 5 سال آینده «جنبش ملی محاسبات استراتژیک» (سرمایه گذار تحقیقات در حوزه سخت افزار پیشرفته و هوش مصنوعی در آمریکا) بخاطر شکست پروژهی خودروهای هوشمند، تعطیل شود. پروژهی کامپیوترهای نسل 5 به جایی نرسد و دولت ژاپن دست از حمایت بردارد. استارت آپ ها یکییکی شکست بخورند. شرکت Texas Instruments و schlumberger و دیگر شرکتها از سرمایه گذاری در AI دست بردارند. و ناگهان متوجه شویم که بابت پروژههای AI نمیتوان بودجهای گرفت! در این بلبشو همه شروع خواهند کرد به دستکاری عنوان پروژههای تحقیقاتیشان تا خودشان را به حوزههای دیگر بچسبانند و از این گرداب نجات دهند. بله! این وضعیت AI Winter نام دارد. چیزی شبیه به «زمستان هستهای» (که در آن بودجهی سلاحهای هستهای قطع شد.)
البته این بدترین حالت ممکن است و به نظرم به هیچ وجه چنین شرایطی محتمل نیست!"
bit.ly/313MbVe
در همین سال John McCarthy از وجود نواقصی در سیستمهای خبره انتقاد کرد و معتقد بود این سیستمها منجر به تصمیمگیری های اشتباه می شوند و از محدودیتهایشان بیاطلاعاند. مثلا در سیستم Mycin، در شرایطی که باکتری ویبریوکلرا در رودهی بیمار باشد، سیستم برایش دو هفته تتراسیکلین تجویز میکند. این درمان، باعث از بین رفتن تمام باکتریهای بیمار میشود اما قبل از آن خود بیمار را هم راهی قبرستان میکند!
علاوه بر این بسیاری از مسائل آنقدر پیچیده بودند که مهندسها نمیتوانستند تمام قوانین را خودشان دستی طراحی کنند و بنویسند.
رکود در بازار سیستمهای خبرهی کامپیوتری، اولین نشانههای زمستان دوم بود. با کاهش موفقیت پروژهها و عدم تحقق وعدهها، Schwarz مدیر DARPA در اواخر دهه 80، تصمیم به کاهش بودجهی پروژهها گرفت. بسیاری از استارت آپ ها تعطیل شدند. کنفرانس AAAI با ریزش شدید بازدیدکنندهها مواجه شد، تا جاییکه در 1995 انتشار مقالات AI به پایین ترین حد خود رسید. نهایتا هم اصطلاح «سیستمهای خبره» شد همتراز «وعدههای عمل نشده و سرمایه های هدر رفته» (مانند اتفاقی که بر سر واژهی هوش مصنوعی در زمستان اول افتاد)
جواد امیریان
زانکو
@zankoo_ai |
🔹نمیدونم چقدر با مفهموم Bayesian Optimization for Hyperparameters آشنا هستید اما اگر حتی یکبار هم تلاش کرده باشید یک network روی یک دیتاست جدید train کنید حتما با این موضوع مواجه شدید که مقدار زیادی از وقتتون صرف پیدا کردن یک ترکیب خوبی از فراپارامترهای مربوط به شبکه و اپتیمایزر و دیگر بخش ها میشه.
علاوه بر روش های مرسوم مثل Grid Search و Random Search که دستی و تصادفی هستند که عموما زمانبر هستند چند وقتی هست که گرایش در کامیونیتی بسمت روشهای نسبتا خودکار و آماری رفته که Bayesian Optimization یکی از این روش ها هست.
با معرفی سه کتابخانه مبتنی بر PyTorch این کار برای عموم محقق ها و پژوهشگرها بسیار ساده و با کمترین زمان ممکن قابل استفاده شده.
🔹 من در یک پیاده سازی ساده در این صفحه در گیتاب نشون میدم که چطوری میتونید این کار بسادگی انجام بدید. این روش کاملا قابل تعمیم به task های دیگه هست:
https://github.com/mbiparva/ax-bo-image-classification
🔹جهت مطالعه بیشتر میتونید به کتابخانه های زیر که به هم وابسته بوده و هر سه مبتنی بر PyTorch هستند مراجعه کنید:
Adaptive Experimentation Platform (Ax):
https://ax.dev/
Bayesian Optimization in PyTorch (BOTorch):
https://botorch.org/
Gaussian processes for modern machine learning systems (GPyTorch):
https://gpytorch.ai/
باتشکر از: MahD
❇️ @AI_Python |
برترین مهارتهای فعلی و آتی متخصصین علمداده!
http://tiny.cc/9kt6cz
بهتازگی توسط وبسایت kdnuggets یک نظرسنجی از متخصصین علوم داده مبنی بر مهارتهای فعلی (Have Skill) و مهارتهای آتی (Want Skill) موردنیاز پرسیده شده است که با توجه به جامعیت نظرسنجی فوق میتواند راهنمایی مناسبی جهت تحلیل مهارتهای موردنیاز بازار علمداده در آینده باشد.
✅ برترین مهارتهای فعلی متخصصین علمداده:
1️⃣ پایتون (Python)
2️⃣ مصورسازی دادهها (Data Visualization)
3️⃣ تفکر انتقادی (Critical Thinking)
4️⃣ اکسل (Excel)
5️⃣ مهارتهای ارتباطی (Communications Skills)
6️⃣ یادگیری ماشین (Machine Learning)
7️⃣ آمار (Statistics)
8️⃣ مهارتهای پایگاه داده (SQL/Database Coding)
9️⃣ فهم کسبوکار (Business Understanding)
🔟 ریاضی (Math)
🔵 برترین مهارتهای آتی (توسعه دانش) متخصصین علمداده:
1️⃣ یادگیری عمیق (Deep Learning)
2️⃣ کتابخانه یادگیری عمیق تنسورفلو (TensorFlow)
3️⃣ یادگیری ماشین (Machine Learning )
4️⃣ پایتون (Python)
5️⃣ آپاچی اسپارک (Apache Spark)
6️⃣ پردازش زبان طبیعی (NLP - Text Processing)
7️⃣ کتابخانه یادگیری عمیق پایتورچ (Pytorch)
8️⃣ آمار (Statistics)
9️⃣ دادههای غیرساختیافته (Unstructured Data)
🔟 سایر ابزارهای کلان داده (Other Big Data Tools)
پینوشت:
◾️ افزایش میزان توجهات به کتابخانه یادگیری عمیق Pytorch، زبان Scala و ابزارهای Big Data با توجه به درصد رشد آن قابلتوجه است.
◾️در میان زبانهای برنامهنویسی، کسب رتبه نخست توسط زبان پایتون و کاهش جایگاه زبانهای برنامهنویسی R و Matlab، این زبان برنامهنویسی را تبدیل به برترین زبان در حوزه علمداده کرده است.
◾️قرار گرفتن دو مهارت نرم (Soft Skill) تفکر انتقادی و مهارتهای ارتباطی جز 5 مهارت برتر فعلی متخصصین علمداده نشان از میزان توجهات به این قبیل مهارتها در این بازار کاری دارد.
ارادتمند
محمدرضا محتاط
@DataAnalysis |
معروف ترین کتابخانه های پایتون برای هوش مصنوعی
کتابخانه ها جان تازه ای به زبان برنامه نویسی پایتون دادهاند و یکی از دلایل اصلی محبوبیت این زبان هستند. کتابخانهها کدهای از قبل نوشته شده هستند که توسط سایر توسعه دهندگان ایجاد شده اند. استفاده از آن ها در زمان شخص برنامه نویس صرفه جویی کرده و از دوباره کاری جلوگیری میکنند. دانش هوش مصنوعی نیاز به تجزیه و تحلیل داده دارد. در ادامه بهترین کتابخانه های پایتون که در تحلیل و بررسی داده به شما کمک خواهند کرد را بررسی می کنیم.
1 - Scikit-learn
یکی از بهترین کتابخانه های یادگیری ماشین در پایتون است. این کتابخانه الگوریتم های اصلی و پایه این حوزه را به خوبی پردازش میکند. مواردی مثل رگرسیون خطی و لاجستیک، خوشه بندی، طبقه بندی و غیره توسط Scikit-learn به خوبی شناسایی میشوند.
2 - Pandas
یک کتابخانه متن باز است که تحت پروانه BSD منتشر میشود. این کتابخانه در کنار کارایی آسان خود، بازدهی بالایی نیز دارد. از Pandas برای تحلیل داده استفاده میشود. Pandas در واقع سعی داشت یک شکاف را در پایتون برطرف کند. این شکاف مشکلی بود که پایتون در مدل سازی و آنالیز داده ها داشت. پانداس در کنار سایر کتابخانه های یادگیری عمیق و یادگیری ماشین قدرت بیشتری میگیرد.
3 - Keras
از Keras برای یادگیری عمیق (Deep Learning) استفاده میشود. این کتابخانه محاسبات و ساخت نمونه را با سرعت بسیار بالا انجام میدهد. به خاطر اینکه به جزء پردازشگر دستگاه (CPU) از گرافیک (GPU) هم برای تقسیم بار محاسباتی استفاده میکند. Keras از پایتون 2.7 تا 3.6 را پشتیبانی میکند و یکی از بهترین کتابخانه های یادگیری عمیق در پایتون است.
4 - TensorFlow
شرکت گوگل در سال 2010 یک تیم تحقیقاتی در حوزه هوش مصنوعی و یادگیری عمیق تشکیل داد. کتابخانه TensorFlow یکی از دستاوردهای این گروه است که در سال 2015 منتشر شد. گوگل هم در تحقیقات و هم در محصولات خود از این کتابخانه استفاده میکند. TensorFlow خودش را با انواع سیستم عامل ها (لینوکس، ویندوز، مکینتاش و غیره) وقف داده است.
5 - Matplotlib
یک کتابخانه بسیار مفید برای ایجاد نمودارها است. به کمک آن میتوانید انواع اشکال دوبعدی، هیستوگرام، نمودار و غیره طراحی کنید. بعد از اینکه اطلاعات متنوع خود را تحلیل کردید، برای خوانایی و فهم بیشتر، میتوانید از نمودارها استفاده کنید. Matplotlib به ما کمک میکند یک خروجی کاربردی و ملموس از دیتای خود داشته باشیم.
6 - NLTK
یک ابزار عالی برای ساخت برنامههای پایتونی مبتنی بر زبان انسان است. مثلا اگر برنامه ای ساختهاید که نیاز به تحلیل صحبت های انسان دارد، میتوانید از کتابخانه NLTK استفاده کنید. متاسفانه این کتابخانه فقط برای زبان انگلیسی کار میکند و امکان اضافه کردن آن به پروژه های فارسی زبان وجود ندارد. NLTK مخفف Natural Language Toolkit بوده و بهترین گزینه در پردازش زبان است.
7 - Scikit-image
پردازش تصویر مبحثی است که رابطه نزدیکی با بینایی ماشین دارد. پردازش تصویر در زمینه های متنوعی مثل موارد نظامی، امنیتی، صنعتی کاربرد دارد. بعضی از کاربردهای بینایی ماشین در زندگی روزمره عبارتند از تشخیص بارکد محصول، تشخیص پلاک یا سرعت خودرو و غیره. Scikit-image الگوریتمهای مختلفی دارد که شامل تغییرات هندسی، آنالیز رنگها، تشخیص ویژگیهای تصویر و غیره میشود.
8 - PyBrain
یکی از بهترین کتابخانه های یادگیری ماشین بوده که با زبان پایتون نوشته شده است. این کتابخانه شامل الگوریتمهایی مربوط به شبکههای عصبی و یادگیری تقویتی است. Pybrain یک کتابخانه رایگان، آزاد و متن باز به حساب میآید که هر کسی میتواند از آن استفاده کند. ترکیب Pybrain با سایر کتابخانههای هوش مصنوعی به نتایج بسیار مفیدی منجر میشود.
9 - Caffe
یک فریم ورک یادگیری عمیق (Deep Learning) است که با تمرکز بر روی سریع بودن و ماژولار بودن طراحی شده است. این کتابخانه پروژه آقای Yangqing Jia در دانشگاه Berkeley بوده و در حال حاضر تحت لایسنس BSD در اختیار عموم قرار گرفته است. برای اینکه قدرت Caffe را درک کنید باید بگوییم که این کتابخانه میتواند با جابهجا شدن بین CPU و کارت گرافیک، روزانه بیشتر از 60 میلیون تصویر را پردازش کند.
10 - StatsModels
این کتابخانه در علوم داده، تجزیه و تحلیل اطلاعات و گزارشگیری ها کاربرد دارد و به خوبی در کنار سایر کتابخانه هایی که معرفی کردیم قرار میگیرد و با آنها تعامل دارد. مثلا می تواند به راحتی برای کنترل دادهها با کتابخانه Pandas ادغام شود. همچنین این کتابخانه برای کار با سایر کتابخانه های گرافیکی از Matplotlib استفاده میکند.
#هوش_مصنوعی #پایتون
🆔 @Ai_Tv |
سلام دوستان،
ما (تیمی از دو دانشجو و دو استاد از دانشگاه Università della Svizzera Italiana سوئیس) برای انجام پروژهای برای یک مرکز مطالعاتی در سوئیس نیاز به جمع آوری اطلاعات رفتار کاربر در هنگام جستجو در یک کتابخانه دیجیتال را داریم. به همین منظور نیاز به همکاری شما در تهیه این اطلاعات و تحلیل رفتار کاربران را داریم. برای اینکار کافی است به وبسایتی که آدرس آن در ادامه وجود دارد مراجعه کنید و مراحل زیر را انجام دهید (همچنین این مراحل در فرم اولیه با تصاویر مشخص شده است).
- وب سایت: https://rerodoc.herokuapp.com
- لطفا از مرورگر Google Chroom استفاده نمایید.
- حداکثر زمان جمع آوری اطلاعات تا تاریخ 15 مهر خواهد بود.
- متن انگلیسی درخواست پس از متن فارسی قرار دارد.
- تعداد سوالات در هر فرم بسیار کم است و تمام این مراحل حداکثر 15 دقیقه از شما زمان خواهد گرفت.
مراحل:
0. در اولین مراجع به وب سایت فرمی (Info Form) نمایش داده میشود که از شما اطلاعاتی در مورد فرد جستجو کننده (شما) مثل سن و جنسیت دریافت خواهد کرد.
1. پس از آن فرم شروع سناریو اول باید تکمیل شود (Scenario1_Pre).
2. پس از این دو مرحله، شما باید با استفاده از قسمت جستجو در وبسایت جستجو کنید.
3. برای تکیمل سناریو اول باید فرم پایان سناریو اول را تکمیل کنید (Scenario1_Post).
4. مراحل 1 تا 3 را برای سناریو دوم تکرار کنید.
با نهایت تشکر،
سعید
Dear colleagues,
We are conducting a study into how people search for information in a digital library. Your contribution will greatly help us better understand searches’ behavior and their needs. We do need your help by participating in this pilot study by putting aside enough time to run a couple of searches in two different scenarios as explained in the experimental website and photo attached.
You need to use Google Chrome and go to https://rerodoc.herokuapp.com/ to start helping us.
Try and do your searches by at the latest the 7th of October.
Your participation is extremely valuable for us!
Thank you in advance |
1) TensorFlow World 2019 Keynote
https://www.youtube.com/watch?v=MunFeX-0MD8
2) Introduction to TensorFlow 2.0: Easier for beginners, and more powerful for experts (TF World '19)
https://www.youtube.com/watch?v=5ECD8J3dvDQ&t=966s
3) Swift for TensorFlow (TF World '19)
https://www.youtube.com/watch?v=9FWsSGD6V8Q
4) Building models with tf.text (TF World '19)
https://www.youtube.com/watch?v=iu_OSAg5slY&t=1s
5) Performant, scalable models in TensorFlow 2 with tf.data, tf.function & tf.distribute (TF World '19)
https://www.youtube.com/watch?v=yH1cF7GnoIo&t=5s
6) Getting involved in the TensorFlow Community (TF World '19)
https://www.youtube.com/watch?v=UbWGYcTUPyI&t=16s
7) TensorFlow World 2019 | Day 1 Livestream
https://www.youtube.com/watch?v=MgrTRK5bbsg
8) Great TensorFlow Research Cloud projects from around the world (TF World '19)
https://www.youtube.com/watch?v=rkqukapSmwQ&t=13s
9) TensorFlow Lite: Solution for running ML on-device (TF World '19)
https://www.youtube.com/watch?v=0SpZy7iouFU
10) TensorFlow Model Optimization: Quantization and Pruning (TF World '19)
https://www.youtube.com/watch?v=3JWRVx1OKQQ&t=1s
11) TFX: Production ML Pipelines with TensorFlow (TF World '19)
https://www.youtube.com/watch?v=TA5kbFgeUlk&t=1452s
12) TensorFlow World 2019 | Day 2 Livestream PM
https://www.youtube.com/watch?v=gy6v-Vc_P0U
13) Unlocking the power of ML for your JavaScript applications with TensorFlow.js (TF World '19)
https://www.youtube.com/watch?v=kKp7HLnPDxc
14) Day 2 Keynote (TF World '19)
https://www.youtube.com/watch?v=zxd3Q2gdArY |
#اندر_حکایت #عدم_پاسخ_گویی_شرکتهای نرم افزاری به درخواست مصاحبه شوندگان :
نشر عکس های فوق که همگی درخواست های فقط یک نفر میباشد دقیقا در راستای شکستن #تابو عدم پاسخ گویی شرکت ها در خصوص آگهی های ثبت شده و ضربه زدن به فرآیند برندینگ برخی شرکت ها توسط بنده صورت گرفته واز تمام صاحبان رسانه(تویتر/پادکست/کانال تلگرام/و هرجایی مخاطبی هست برای خواندن و شنیدن و دیدن) درخواست میکنم در قبال این رفتار غیرحرفهای سکوت نکنند و در حد توان به تحقق مطالبات به حق جامعه ی کوچک برنامه نویسان کمک نمایند
✅ @ai_python
#پی.نوشت اول: البته لازم به ذکر میباشد برخی معدود(یک تا سه عدد)از این شرکت ها به صورت ایمیلی نتیجه ی رد شدن را اعلام کرده اند
پی.نوشت دوم: نحوه ی اطلاع رسانی برخی شرکت ها جهت مصاحبه و فرآیند مصاحبه "دردی دگر است نه درد امروز" که شاید در مجالی دیگر و بحثی دیگر به آن پرداختیم
پی.نوشت سوم: بنده به نوبه خودم وظیفه ی خود میدانم در خدمت تمامی دوستان باشم تا دغدغههای اصلی و فرعی جامعه ی برنامه نویسی را در توان به گوش همگان برسانم پس اگر دغدغه یا دلنگرانی دارید درخدمت شما هستم
#پی.نوشت چهارم: این ایده بعد از گوش دادن به پادکست رادیو فول استک و مصاحبه ی آنها با جناب رضا غیاثی عزیز شکل گرفت
کمترین شما عزیزان :
@majid199372
✅ @ai_python |
با سلام خدمت همراهان گرامی🤗
🎈پیشاپیش ولادت امام حسن عسکری(ع) بر امام زمان(عج) و همه شما مبارک🌹
#اطلاعیه_۱_چهارمین_دوره_سمکد
۱- از هم اکنون میتوانید با تشکیل تیم 👬 خود در سامانه www.quera.ir در مسابقه دستگرمی🔥 ثبتنام کرده و برای آشنایی با روند مسابقه سمکد، مسائل مربوط به مراحل آنلاین سالهای گذشته سمکد را حل کرده و ارسال نمایید.😬
۲- همچنین برای ثبت نام در مسابقه مرحله اول 🥇 نیز میتوانید از هماکنون ثبتنام خود را نهایی کنید.
۳- دقت داشته باشید که ثبتنام شما در مسابقه دستگرمی🔥 به معنای ثبتنام قطعی در مسابقه اصلی🥇 نمیباشد.
لینک مسابقه دستگرمی:
https://quera.ir/contest/other/
۴- 📜پاسخهای شما به مسابقه دستگرمی در تعدای از سوالات در همان لحظه نمرهدهی خواهد شد و در سوال «بهینهسازی» باید خودتان طبق نکتهای که گفته شده است، با استفاده از فایل آزمایهها نمره خود را استخراج کنید.
چنانچه سوالی داشتید، میتوانید در قسمت «سوال بپرسید» سوال خود را مطرح کنید تا مسولان مسابقه در اسرع وقت آن را پاسخ دهند.🤩😏
۵- همچنین دقت داشته باشید که این مسابقه ویژه دانشآموزان دبیرستانهای دوره اول میباشد. |
✔️ معرفی #منابع_آموزشی پیشنهادی برای یادگیری هوش مصنوعی
#Ai #Deep_Learning #Machine_learning
#یادگیری_عمیق #هوش_مصنوعی
#یادگیری_ماشین #شبکه_عصبی
✅ گام اول برای یادگیری هوش مصنوعی:
- فراگیری پایتون
- فراگیری یادگیری ماشین
📍یادگیری ماشین بااستفاده از scikit-learn 👈 لینک دوره
📍یادگیری ماشین با استفاده از پایتون 👈 لینک دوره
📍آموزش یادگیری ماشین 👈 لینک دوره
📍یادگیری ماشین با استفاده از scikit-learn-part1 👈 لینک دوره
📍مبانی مقدماتی تا پیشرفته یادگیری ماشین 👈 لینک دوره
✅ استفاده از منبع های مختلف دانشگاه ها و سایت های معتبر
📍 اصول و روش های هوش مصنوعی از دانشگاه استنفورد 👈 لینک دوره
📍 منابع آموزشی دانشگاه MIT 👈 لینک دوره
📍دوره هوش مصنوعی Saylor 👈 لینک دوره
📍منابع آموزشی موجود در سایت Edx 👈 لینک دوره
📍منابع اموزشی مقدمات هوش مصنوعی 👈 لینک دوره
📍 ویدیو های سخنرانی دانشگاه برکلی 👈 لینک دوره
📍 آموزش یادگیری عمیق Google 👈 لینک دوره
📍ویدیو آموزش یادگیری ماشین دانشگاه کارنگی ملون استاد لری وارسرمن 👈 لینک دوره
📍آموزش شبکه های عصبی برای هوش مصنوعی 👈 لینک دوره
✅ یادگیری نظریه های آمار، احتمال و ریاضی
📍آموزش جبر خطی 👈 لینک دوره
📍آموزش آمار و احتمال دانشگاه MIT 👈 لینک دوره
📍معادلات دیفرانسیل و چندگانه 👈لینک دوره ۱ لینک دوره ۲
📍آموزش نظریه گراف سایت coursera 👈 لینک دوره
📍آموزش روش های بهینه سازی دانشگاه استنفورد👈 لینک دوره
✅ ویدیوهای فارسی
📍آموزشهای فارسی یادگیری ماشین دکتر رضوی 👈 لینک
📍گروه فارسی پرسش و پاسخ هوش مصنوعی، یادگیری ماشین و یادگیری عمیق:
https://t.me/joinchat/ClyM2kZKfp0_jRXWpiQDkw
✅ برترین مقالات هوش مصنوعی و یادگیری ماشین:
@ai_python_arxiv
❇️ @AI_Python |
شرح موقعیت شغلی
مجموعه پویا پردازش برای گسترش تیم توسعه و طراحی وب، به دنبال عضوی متعهد با تخصص در پیادهسازی و توسعه Front-End و مسلط به توسعه WordPress میباشد.
مهارتهای فنی مورد نیاز:
تسلط کامل به HTML5 و CSS3 و مبانی طراحی وب
باتجربه و مسلط در سبکسازی و بهینهسازی سرعت لود صفحات
مسلط به Bootstrap و آشنا با بویلرپلیت های دیگر مثل Foundation
مسلط در کدنویسی و توسعه jQuery
توانایی کار با Api
آشنا با JavaScript و توانمند در ویرایش و توسعه
آشنایی کامل با اصول On-site SEO
طراحی و توسعه صفحات وب بر پایه طرحهای ارائه شده یا تمپلیتهای نمونه
علاقه مند و صاحب تجربه در طراحی گرافیک، صاحب سلیقه
حساس به جزئیات طرح و کیفیت پیادهسازی
خلاق در تکمیل و بهینهسازی طرح های UI و UX
تسلط کامل به WordPress و WooCommerce و آشنایی کامل با زیربنا و معماری آنها
مسلط در طراحی قالب اختصاصی WordPress از ۰ تا ۱۰۰
مسلط به ساخت theme و child theme
آشنایی کامل با PHP و MySQL
آشنایی با ضعفهای امنیتی ووردپرس و توانمند در رفع آنها
ارائه چند نمونه از بهترین نمونه کارهای خود
تسلط به Java Script, React JS
تسلط به فریمورک های مدرن Java Script مانند Redux, React, React Native
تمام وقت - پاره وقت
حقوق: 2 تا 6 میلیون
📩: [email protected] |
16 منبع آموزشی الگوریتمهای هوش مصنوعی〰️〰️〰️
♾ 1. Speech and Language Processing by Dan Jurafsky and James Martin
🔊 2. Deep Learning for Natural Language Processing by Richard Socher (Stanford University)
🔔 3. Natural Language Processing (NLP) by Microsoft
🔸 4. Andrew Ng’s course on Machine Learning
🔸 5. The video lectures and resources for Stanford’s Natural Language Processing with Deep Learning
🔰 Part 2
🔹6. Sequence Models for Time Series and Natural Language Processing
🔺 7. Deep Natural Language Processing course offered in Hilary Term 2017 at the University of Oxford.
🔺 8. Natural Language Processing Fundamentals in Python by Datacamp
🔺 9 Natural Language Processing by Higher School of Economics
🔸 10 How to Build a Chatbot Without Coding by IBM
🔸 11. CS 388: Natural Language Processing by University of Texas
🔸 12. Natural Language Processing with Python
⚡️ 13. CSEP 517: Natural Language Processing by University of Washington
🔰 14. Dan Jurafsky & Chris Manning: Natural Language Processing
📘 15. NATURAL LANGUAGE PROCESSING by Carnegie Mellon University
📘 16. CS224n: Natural Language Processing with Deep Learning by Stanford University
#منابع #یادگیری_ماشین #فیلم #کلاس_آموزشی #الگوریتمها #پردازش_زبان_طبیعی #هوش_مصنوعی #یادگیری_عمیق
join👇👇👇
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
#یادگیری_عمیق دقیقا چیه؟
طی چند روز گذشته، بعضی از محققهای بزرگ هوش مصنوعی مانند #یان_لکان و #فرانسوا_شوله تعریف خودشون رو از دیپ لرنینگ توی سال 2019 اعلام کردند.
یان لکان:
"Some folks still seem confused about what deep learning is. Here is a definition:
DL is constructing networks of parameterized functional modules & training them from examples using gradient-based optimization. That's it.
This definition is orthogonal to the learning paradigm: reinforcement, supervised, or self-supervised.
Don't say "DL can't do X" when what you really mean is "supervised learning needs too much data to do X"
Extensions (dynamic networks, differentiable programming, graph NN, etc) allow the network architecture to change dynamically in a data-dependent way."
https://www.facebook.com/722677142/posts/10156463919392143/
فرانسوا شوله:
"What's deep learning?
The "common usage" definition as of 2019 would be "chains of differentiable parametric layers trained end-to-end with backprop".
But this definition seems overly restrictive to me. It describes *how we do DL today*, not *what it is*."
https://twitter.com/fchollet/status/1210031900695449600
اندری بورکوف:
"Looks like in late 2019, people still need a definition of deep learning, so here's mine: deep learning is finding parameters of a nested parametrized non-linear function by minimizing an example-based differentiable cost function using gradient descent."
https://www.linkedin.com/posts/andriyburkov_looks-like-in-late-2019-people-still-need-activity-6615377527147941888-ce68/
#deep_learning |
16 منبع آموزشی الگوریتمهای هوش مصنوعی〰️〰️〰️
♾ 1. Speech and Language Processing by Dan Jurafsky and James Martin
🔊 2. Deep Learning for Natural Language Processing by Richard Socher (Stanford University)
🔔 3. Natural Language Processing (NLP) by Microsoft
🔸 4. Andrew Ng’s course on Machine Learning
🔸 5. The video lectures and resources for Stanford’s Natural Language Processing with Deep Learning
🔰 Part 2
🔹6. Sequence Models for Time Series and Natural Language Processing
🔺 7. Deep Natural Language Processing course offered in Hilary Term 2017 at the University of Oxford.
🔺 8. Natural Language Processing Fundamentals in Python by Datacamp
🔺 9 Natural Language Processing by Higher School of Economics
🔸 10 How to Build a Chatbot Without Coding by IBM
🔸 11. CS 388: Natural Language Processing by University of Texas
🔸 12. Natural Language Processing with Python
⚡️ 13. CSEP 517: Natural Language Processing by University of Washington
🔰 14. Dan Jurafsky & Chris Manning: Natural Language Processing
📘 15. NATURAL LANGUAGE PROCESSING by Carnegie Mellon University
📘 16. CS224n: Natural Language Processing with Deep Learning by Stanford University
#منابع #یادگیری_ماشین #فیلم #کلاس_آموزشی #الگوریتمها #پردازش_زبان_طبیعی #هوش_مصنوعی #یادگیری_عمیق
join👇👇👇
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
🔥 As you know ML has proven its importance in many fields, like computer vision, NLP, reinforcement learning, adversarial learning, etc .. Unfortunately, there is a little work to make machine learning accessible for Arabic-speaking people. Arabic language has many complicated features compared to other languages. First, Arabic language is written right to left. Second, it contains many letters that cannot be pronounced by most foreigners like ض ، غ ، ح ، خ، ظ. Moreover, Arabic language contains special characters called Diacritics which are special characters that help readers pronounced words correctly. For instance the statement السَّلامُ عَلَيْكُمْ وَرَحْمَةُ اللَّهِ وَبَرَكَاتُهُ containts special characters after most of the letters. The diactrics follow special rules to be given to a certain character. These rules are construct a complete area called النَّحْوُ الْعَرَبِيُّ. Compared to English, the Arabic language words letters are mostly connected اللغة as making them disconnected is difficult to read ا ل ل غ ة. ArbML helps fixing this by implementing many open-source projects that support Arabic, ML and NLP.
https://github.com/zaidalyafeai/ARBML
#machinelearning #deeplearning #artificialintelligence #nlp
❇️ @AI_Python_EN |
شرکت همراه اول برای پروژه «توسعه موتور جستجوی بومی» از متخصصین دارای سابقه مرتبط یا واجدین تخصصهای زیر دعوت به همکاری میکند (با شرایط مناسب):
🔹آشنایی کامل با برنامه نویسی به حداقل یکی از زبانهای جاوا، پایتون، ++C
🔸آشنایی با مفاهیم برنامهنویسی شیء گرا و design patternهای آن
🔹آشنایی و تجربه در حوزه معماری و طراحی سیستمهای نرمافزاری توزیعشده و مقیاسپذیر
🔸آشنایی با مفاهیم و شاخصهای حوزه کلانداده (big data)
🔹آشنایی و تجربه کار با زیرساختهای سیستمهای توزیعشده خصوصا نرمافزارهای زیستبوم کلانداده آپاچی (Hadoop, Spark, Elasticsearch, ...)
🔸آشنایی با برنامهنویسی front-end سامانههای مبتنی بر وب یا کلاینتهای موبایل (خصوصا اندروید)
🔹آشنایی با مفاهیم و موضوعات حوزه علوم و تحلیل داده و دادهکاوی در مقیاس کلانداده (شامل پردازش زبان طبیعی (NLP)، الگوریتمهای تحلیل گراف، الگوریتمهای خوشهبندی و ردهبندی (Clustering & Classification)، ذخیره و بازیابی اطلاعات متنی (Text retrieval)، ارزیابی کیفیت داده و ...)
🔸آشنایی با مفاهیم حوزه DevOps و Operation و زیرساختهای نرمافزاری (شامل زیرساختهای پردازش ابری، کانتینرها، مجازیسازی، راهکارهای تجمیع و تحلیل لاگ و ...)
مزایا:
✅ حقوق مناسب و پرداخت بهموقع
✅ بیمه و بیمه تکمیلی
✅ کارانه در طول سال
✅ مشارکت در پروژه در سطح ملی
✅ حضور در یک تیم با تجربه و کار در حوزههای لبه فناوری
✅ امکان رشد و پیشرفت در حوزههای تخصصی و شغلی
علاقهمندان لطفا رزومه خودشون را به همین id یا به پست الکترونیکی [email protected] ارسال کنند. |
If a statistician is given data and asked to extract insights from it, there are a number of considerations.
Here are some of them. What is the motivation for the analysis? Who will use the results, when will they use them and for what purpose? Am I clear on the meaning of the data? Codebooks are often of little help in answering this question.
Are there other data or background information that should be used in the analysis? How clean are the data? Have they been recoded or transformed in any way? Have some fields been imputed? If so, how? Will recoding, transformations or imputations be needed?
If there are missing data, why are they missing? Which variables do we need to explain or predict? Which variables will we use to predict them? On the other hand, is unsupervised learning best? Will a single model do, or are there subgroups or latent segments in the data that need to incorporated into the modeling? Would a hierarchical model be appropriate? If the data are longitudinal or time-series, there are a host of issues that will need to be addressed.
When mining any data, patterns will found which cannot be explained and have no clear utility to decision makers or other researchers.
The above would apply even if the statistician is an AI.
❇️ @AI_Python |
#اندر_حکایت : آموزش از طریق تلویزیون
#آموزش_از_راه_دور #تلوزیون #کورونا
❇️ @AI_Python
✴️ @AI_Python_EN
دقایقی پیش در اخبار رسمی شبکه ی دوم صدا و سیمای جمهوری اسلامی ایران مطلع شدم بخشی از فرآیند یادگیری مدارس توسط شبکه های تلویزیونی به عهده گرفته شده و سالها پیش وقتی خبر ساخت هواپیماهای روز قیامت روسیه شنیدم عمیقاً در فکر و تحیر فرو رفته بودم که علت ساخت همچنین تجهیزاتی واقعاً چیست و چه لزومی داره
(اگر نمیدونید این هواپیما چیه: https://fa.alalamtv.net/news/1906122/%D8%B9%DA%A9%D8%B3%D8%9B-%DA%86%D8%B1%D8%A7-%D8%A2%D9%85%D8%B1%DB%8C%DA%A9%D8%A7-%D8%A7%DB%8C%D9%86-%D9%BE%D8%B1%D9%86%D8%AF%D9%87-%D8%B1%D9%88%D8%B3%DB%8C-%D8%B1%D8%A7-%D8%B1%D9%88%D8%B2-%D9%82%DB%8C%D8%A7%D9%85%D8%AA-%D9%86%D8%A7%D9%85%DB%8C%D8%AF%D8%9F )
و اما امروز بیشتر از هر زمانی میبینم که واقعا کشورها چه نیازی به پدافند غیرعامل دارند سالهای سال است که ما در کشور خود متعدد اسم های دولت الکترونیک و همچنین مداراس هوشمند را میشنویم و امروز با هجوم موج اولیه ی بیماری #کورونا واقعاً چند سوال اساسی ذهن این نویسنده را به خود مشغول کرده است
#سوال اول : چرا وزارت آموزش و پرورش کشور تا کنون به فکر تولید یک سیستم جامع آموزش از راه دور مانند وبینیار و سایر سیستم های تصمیم یار(DSS) نیوفتاده است ؟ با توجه به اینکه کشور ما همراه درگیر مشکلاتی از قبیل: بلای طبیعی ، خطر جنگ ، و دیگر عوال محیطی مانند آلودگی هوای کلان شهرها هجوم همه ساله ی ریز گردها و سایر موارد بوده ،هست و خواهد بود
#سوال دوم: آموزش از طریق تلویزیون واقعا در کجا دنیا یک مثال عملگرایانه و تجربی بوده؟ اگر کسی از خوانندگان عزیز مثالی را سراغ دارد با بنده هم به اشتراک بگذارد
#سوال سوم: وزیر جوان تا چه زمانی دست از اظهار نظرهای پوپولیستی نظیر پست هوایی خواهد شست و واقعاً در پی حل مشکلاتی که فناوری اطلاعات میتواند نقش عمده ای در حل آن ایفا کند بر خواهد آمد ؟
#سوال چهارم: کارهایی از قیبل امور بانکی خریدهای ضروری غیر آنلاین-نابرخط :)، ارائه خدمات دولتی به صورت غیر حضوری، کارمندی بدون قابلیت دورکاری، ارائه خدمات غیردولتی به صورت غیر آنلاین جز اصلی ترین علت های خروج این روزه مردمان عزیز ما از منازل مسکونی خود است آیا با توجه به این تجربه گذرا و مهم نباید دولت به صورت جدی در پی ساخت و راه اندازی اینگونه سیستمهای آنلاین به صورت واقعی و
عمگرایانه (pargmatic)و به دور از هرگونه نمایش باشد؟؟؟
تا در زمان و مکان مناسب کاملا رایگان جایگزین فعالیت های اجتماعی شهروندان ایرانی شود(همچین تمام فرآیندها میتواند ایزوله و کاملا بهداشتی پیمایش شود مانند خریدهای ضروری مردم عزیز)؟
#یادآور میشود مطالب فوق صرفاً یک تحلیل نیمه تخصصی ایست برای بهبود عملکرد خادمین ملت ایران امید است که این مقالات و نظرات به سمع و نظر دلسوزان و خادمین ملت برسد و موجو بهبود اوضاع کشور شود
در #آخر با پرهیز از هرگونه اضافه گویی با توجه به وضعیت کنونی کشور از تمام پرسنل پزشکی، پرستاری، پیراپزشکی، بهداشتی درمانی نهایت تشکر را داریم چراکه اینگونه خدمات در این لحظات بحرانی با هیچ میزان هزینه مالی قابل قیاس نیست
کمترین شما عزیزان : مجید آقامحمد
پذیرای هرگونه انتقاد و پیشنهاد شما هستم:
@majid_aghamohammad
❇️ @AI_Python
✴️ @AI_Python_EN |
🔸🔹برنامه نویس ارشد پایتون🔹🔸
به منظور توسعه محصولات دانشبنیان در حوزه علمدادهها، نیازمند 2 فرد باتجربه و بامهارت بالا در زمینه برنامهنویسی پایتون در دفتر مشهد هستیم. اگر دارای شرایط عمومی و مهارتهای ذیل هستید و علاقمند به حضور و فعالیت در توسعه محصولات دانشبنیان در یک محیط استارتاپی پویا با شرایط کاری بسیار مناسب میباشید، لطفا با ما تماس بگیرید:
🔻 شرایط عمومی:
• دارای روحیه تیمی
• منظم و مسئولیت پذیر
• حداقل سه سال سابقه کار حرفهای مرتبط
🔻 مهارتهای موردنیاز:
• تسلط کامل به Python
• مسلط به مفاهیم NoSQLتجربه کار با MongoDB و MySQL/MS SQL
• مسلط به Django/Flask
• مسلط به طراحی RESTful APIs و مفاهیم وب سرویس
• آشنایی با سیستم عامل لینوکس
• آشنایی با Docker, kubernetes و Docker compose
• تجربه کاری با TensorFlow/Pythorch/Keras مزیت محسوب میشود
🔻 مزایا:
• حقوق بسیار مناسب متناسب با سطح تجربه و دانش
• بیمه
• محیط پرنشاط و پویا
تلفن تماس: 09154009148
ایمیل: [email protected]
(در صورت دریافت ایمیل، تاییدیه برایتان ارسال خواهد شد)
#python #Django #استخدام |
Build TensorFlow input pipelines with tf.data
⚪️فیلم وبینار فارسی tf.data و راهکارهای افزایش سرعت آموزش - پنجشنبه مورخ ۱۴ فروردین ۱۳۹۹
⚪️سطح: پیشرفته (کد نویسی)
این وبینار به آموزش مراحل ساخت pipeline ورودی TensorFlow2 و keras با tf.data و دلایل استفاده نکردن از پیشپردازشهای keras نظیر ImageDataGenerator و لزوم بهرهگیری از tf.data پرداخته است. بعد از بررسی گامهای مختلف ETL به عنوان مثال عملی، Transfer learning برای طبقه بندی تصویر را با tf.data انجام دادیم. در نیمهی دوم وبینار بیشتر روی افزایش performance سرعت آموزش و تست بحث شد و راهکارهایی نظیر
prefetch، Parallelize ، transformation، cache،snapshot، tf.function، XLA
و همچنین
mixed precision
بحث شد.
اسلایدهای وبینار
https://www.slideshare.net/Alirezaakhavanpour/build-tensorflow-input-pipelines-tfdata
فیلم وبینار در آپارات:
https://www.aparat.com/v/HGvC2
کدهای اسلایدها و مثال عملی:
https://github.com/Alireza-Akhavan/class.vision/tree/master/tf2
#منابع #فیلم #پایتون #تنسرفلو #پردازش_تصویر #انتقال_یادگیری
#Python
این روزهای قرنطینه خودتون رو با این آموزشهای خوب سپری کنید.
❇️ @AI_Python |
#صدای_دانشجو
#ارسالی_دانشجویان
سلام اقا توروخدابزارید کانال این همه میگن کلاسا مجازی ک هیچ تلاشم میکنن امتحانا مجازی به این فکرکردن شایدیکی لپ تاپ نداره نمی تونه توکلاسا شرکت کنه فقط یه گوشی ک اونم نمی کشه برنامرو بازنمی کنه اینترنت دادن به همه ولی کسی ک لپ تاپ نداره نمی تونه توکلاساشرکت کنه چیکارکنه دوراه بیشترنداره یاحذف ترم کنه یا خانوادشو به فشاربندازه ک براش لپ تاپ بخرن این انصافه واقعا؟؟دانشجو چه گناهی داره ک حذف ترم کنه چرا باید ازدوستاش عقب بمونه خانواده چه گناهی داره به خاطر بچه اش تواین روزاک بیشترمردم روزمرشونوبه زور می گذرونن کسب وکارنیس به قرض بیوفته تا بچش بتونه توکلاسا شرکت کنه ماهاچه گناهی داریم پدرمادرامون چه گناهی دارن واقعا چی میشه ازمرداد شروع شه ؟هواگرمه مگه توزمستون سردنبود چجوری میرفتیم کلاسا واقعایکم رسیدگی کنین قرارنیس هردانشجوی لپ تاپ یاهرچی داشته باشه چون دانشجوس نیازاش کامل باشه یکم فکرِهمه باشین تواین وضع بجای شاد بود پدرمادرارو درمقابل بچه هاشرمنده نکنین هیچ پدری ازاینک نتونه نیازبچشو تامین کنه خوشحال نمیشه بیشترپدرا بروز نمی دن ولی ازدرون داغونن بخاطر این مسله کوچیک توخونه هاناراحتی نندازن دیرشروع شه دیرتموم شه عیب نداره هرکسی یه مشکلاتی داره شاید50%درصد همین مشکلی ک من دارمو دارن ولی نمی گن حذف ترمو ترجیح میدن به گفتن تااین ک خرد نشن درحالی ک خردشدن نداره درس خوندن به اینجوررچیزانیس درسته وسایل موردنیازه ولی اونیکه نداره عیبم نیس ومشکل ماهاهم نیس باعث بانی کرونا دانشجوهانیستن مسولان یکم توتصمیم گیری همرو درنظربگیرین🙏
@tabriz_university |
❇️ مجموعه مقالات و آموزشهای بورس
امروزه، یکی از فعالیتهای مفید و پرسود اقتصادی ورود به بازار سهام و فعالیت در آن است. اما این حوزه نیز مانند هر زمینه دیگری، یک موضوع تخصصی محسوب میشود و هر فردی که علاقهمند به فعالیت در زمینه بورس و بازارهای مالی است، باید آموزشهای لازم را برای یک فعالیت اقتصادی مطمئن، دیده باشد. در ادامه، منابع آموزشی و مطالعاتی مربوط به بورس و بازار سهام برای افرادی که قصد فعالیت در این حوزه را دارند، معرفی شده است.
📈 راهنمای کامل آشنایی با مفاهیم پایهای بورس و بازار سهام
در مطلب «بورس چیست؟»، که پیش از این در مجله فرادرس منتشر شده، به مفاهیم پایهای و اساسی بورس و بازار سهام، به زبان بسیار ساده پرداخته شده است. مطالعه این مطلب، که به رایگان در دسترس است، به کلیه افرادی که قصد آشنایی با این حوزه را دارند، اکیدا توصیه میشود.
🔗 بورس چیست؟ — به زبان ساده [+]
📈 مجموعه آموزشهای بورس و بازارهای سهام
یکی از زمینههایی که در آموزشهای ویدئویی فرادرس به طور جامع و گسترده به آن پرداخته شده، حوزه بورس و بازار سرمایه است. تا کنون، ۲۰ عنوان آموزشی در زمینه بورس، تحلیل تکنیکال و بازار سهام، روی فرادرس ارائه و بیش از ۹۰ هزار ثبت نام در آموزشهای این حوزه انجام شده است.
این آموزشها، با همکاری مدرسین مجربی تهیه شده است که سالها سابقه فعالیت و مشاوره در حوزه بازار سهام را داشتهاند و هزاران نفر، آموزشهای مربوط به این حوزهها را، از این مدرسین با تجربه آموختهاند.
🔗 مجموعه کامل آموزشهای بورس و بازار سهام
📈 آموزشهای رایگان بورس و بازار سرمایه
در طرح آموزش رایگان فرادرس، تعدادی از آموزشهای حوزه بورس و بازارهای سرمایه به صورت رایگان ارائه شدهاند. از جمله این آموزشها میتوان به آموزش تحلیل تکنیکال اشاره کرد. این آموزش که طول آن قریب به ۱۲ ساعت است، و همچنین سایر آموزشهای بورس و بازارهای سرمایه که در این طرح رایگان شدهاند، از طریق لینک زیر قابل دریافت هستند:
🔗 آموزش تحلیل تکنیکال در بازارهای مالی
لینک برخی از دیگر عناوین آموزشهای فرادرس در زمینه بورس و بازارهای سهام:
🔗 آموزش مقدماتی بازار بورس — از ورود تا شروع معاملات سهام
🔗 آموزش نوسانگیری در بورس
🔗 آموزش تحلیل تکنیکال معاملات سهام
🔗 آموزش تحلیل تکنیکال با ایچیموکو
🔗 آموزش فیلترنویسی در بورس
🔗 آموزش نرمافزار متاتریدر (Meta Trader)
🔗 آموزش استراتژی معاملات رابرت ماینر
🔗 آموزش مبانی مدیریت سرمایه گذاری
🔗 آموزش آشنایی با بازارهای مالی
🔗 آموزش تحلیل تکنیکال در بازارهای مالی
فهرست کامل آموزشهای این حوزه نیز، از طریق لینک زیر در دسترس است:
🔗 ✅ مجموعه کامل آموزشهای بورس و بازار سهام
📚 فرادرس
دانش در دسترس همه
همیشه و همه جا
@FaraDars — فرادرس
|
✔️دوره آموزش جنگو به زبان فارسی
#جنگو #Django
این دوره ی آموزشی جنگو به صورت مقدماتی تا پیشرفته و پروژه محور در یوتیوب برگزار میشود. از جلسه ۳۹ هم به شیوه ی بروز ریکورد میشه.
۰۰۰ - معرفی
https://www.youtube.com/watch?v=XVNnOa41jT0
۰۰۱ - نصب ابزارهای مورد نیاز در لینوکس و شروع اولین پروژه
https://www.youtube.com/watch?v=ZuOBNb8QFCA
۰۰۲ - نصب ابزارهای مورد نیاز در ویندوز و شروع اولین پروژه
https://www.youtube.com/watch?v=GTBV9lTyujw
۰۰۳ - اولین ویو در جنگو
https://www.youtube.com/watch?v=A89BDmTVqQ0
۰۰۴ - ادامه ویوها، پاسخ Json و بیشتر
https://www.youtube.com/watch?v=f5BhHYcSOuo
۰۰۵ - شورتکات render و کار با template
https://www.youtube.com/watch?v=nvJ1rridz8M
۰۰۶ - شروع کار با مدل ها
https://www.youtube.com/watch?v=vEi9lwkRAxg
۰۰۷ - تنظیم آپلود و نمایش media
https://www.youtube.com/watch?v=WqWpyYSoPa8
۰۰۸ - تنظیمات پنل مدیریت در جنگو
https://www.youtube.com/watch?v=RSnfZ05GqRk
۰۰۹ - دریافت اطلاعات دیتابیس به وسیله model و نمایش در view
https://www.youtube.com/watch?v=JuzvV5IefMc
۰۱۰ - ویو جدید، url جدید
https://www.youtube.com/watch?v=OlOQmEwHMos
۰۱۱ - استفاده از یک قالب آماده در template
https://www.youtube.com/watch?v=wXdnivPPfM0
۰۱۲ - استفاده از قالب base و extends در template
https://www.youtube.com/watch?v=2rs9XrlK_fM
۰۱۳ - نمایش محتوا در template، فیلتر و موارد بیشتر
https://www.youtube.com/watch?v=ZwvmQYaqr0E
۰۱۴ - رفع یک مشکل
https://youtube.com/watch?v=wC5PAeRkONM
۰۱۵ - فارسی سازی ادمین پنل و تنظیم ساعت
https://youtube.com/watch?v=eFbhQVQwu4M
۰۱۶ - نوشتن تابع برگرداندن تقویم شمسی در جنگو
https://youtube.com/watch?v=MDDqZtuNoCY
۰۱۷ - مبدل اعداد فارسی
https://youtube.com/watch?v=4kASKVt719M
۰۱۸ - شروع با مدل دستهبندی
https://www.youtube.com/watch?v=9zTwKFCI390
۰۱۹ - نمایش دسته بندی ها در پنل مدیریت
https://youtu.be/62vRRZVqLQo
۰۲۰ - نمایش دستهبندی ها در نوبار وبلاگ
https://www.youtube.com/watch?v=CsCpUpAxUA8
۰۲۱ - راستچین کردن قالب وبلاگ
https://www.youtube.com/watch?v=xSxXFZxDHk4
۰۲۲ - ایجاد تگ های اختصاصی
https://www.youtube.com/watch?v=Am6TNNJc9GM
۰۲۳ - نمایش لیست مقالات هر دستهبندی و رفع باگ
https://www.youtube.com/watch?v=zfPr-Est1tc
۰۲۴ - شروع کار با منیجرها در جنگو
https://www.youtube.com/watch?v=tV5Tmvim0n8
۰۲۵ - صفحه بندی وبلاگ (پیجینشن) در جنگو
https://www.youtube.com/watch?v=icbqZpkzcOs
۰۲۶ - ایجاد صفحهبندی دستهبندی ها و ایجاد منیجر
https://www.youtube.com/watch?v=ZwNzbwHOStY
۰۲۷ - دستهبندی های تودرتو در جنگو، طراحی مدل
https://www.youtube.com/watch?v=DykiBST2kA8
۰۲۸ - دستهبندی های تودرتو در جنگو، طراحی تمپلیت
https://youtube.com/watch?v=CucVNtRvJBE
۰۲۹ - دستهبندی های تودرتو در جنگو، استایل مناسب
https://youtube.com/watch?v=7e6ceUSq6h0
۰۳۰ - آغاز کار با کلاسبیسویوها: ListView
https://youtube.com/watch?v=24oB6SZR5QE
۰۳۱ - کلاسبیسویوها: DetailView
https://www.youtube.com/watch?v=cnpJ7WhScpI
۰۳۲ - ایجاد بخش مقالات یک دستهبندی با کلاسبیسویو
https://youtube.com/watch?v=ncoIEXXrywk
۰۳۳ - اکشن در پنل مدیریت جنگو
https://youtube.com/watch?v=l3LfZinjr5c
۰۳۴ - نمایش تصویر بندانگشتی در پنل مدیریت (نمایش محتوای HTML)
https://youtube.com/watch?v=EWXAVzAgjcg
۰۳۵ - دستکاری فونت و استایل پنل مدیریت در جنگو
https://www.youtube.com/watch?v=gjAiVmbK7dg
۰۳۶ - آشنایی با تمپلیت پنل مدیریت جنگو و تغییرات آن
https://www.youtube.com/watch?v=iBzuZ8ff1fQ
۰۳۷ - آپلود پروژه جنگو بر روی گیتلب
https://www.youtube.com/watch?v=ir8smyVFZ7M
۰۳۸ - بهبود کدهای پروژه ی جنگو
https://www.youtube.com/watch?v=cUEGR0lBxyA
۰۳۹ - کلاس User در جنگو و ساخت صفحه لیست مقالات نویسندگان
https://www.youtube.com/watch?v=4v6ysHL3H3I
۰۴۰ - آموزش جنگو - شروع ساخت پنل مدیریتی شخصی، کار با decorator و mixin در جنگو
https://www.youtube.com/watch?v=btxImixfNVw
۰۴۱ - آموزش جنگو - طراحی و تنظیم قالب صفحه لاگین
https://www.youtube.com/watch?v=1I9knKwytaw
۰۴۲ - آموزش جنگو - django tweaks و مدیریت خطاهای ورود
https://www.youtube.com/watch?v=8NmdsQu0bWw
۰۴۳ - آموزش جنگو - دانلود و تنظیم قالب AdminLTE
https://www.youtube.com/watch?v=-en0uYR0Unk
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
انواع پارتیشن بندی در موقعیتهای مختلف
اول از همه باید متوجه شوید در چه حالتی سیستم بوت شدهاست. گاهی اوقات سیستم شما معمولا اگر قدیمی باشد، از فرمویر UEFI پشتیبانی نمیکند.
هنگامی که live سیستم را بالا آوردید، دستور زیر را برای بررسی این مورد داخل ترمینال اجرا کنید:
$ ls /sys/firmware/efi
در صورت وجود این دایرکتوری یعنی شما UEFI بوت کردهاید.
در مرحله دوم، شما نیاز دارید که Partition table خودتان را متوجه شوید. دستورات زیادی هستند که این اطلاعات را به شما میدهند.
1)Fdisk
$ sudo fdisk -l /dev/sdXY
در خروجی، جلوی Disklable type اگر dos نوشته شده بود، یعنی شما پارتیشن تیبلی که دارید mbr است. در غیر این صورت، gpt نوشته شده.
2)Parted
$ sudo parted -l /dev/sdXY
در خروجی، جلوی Partition table میتوانید پارتیشن تیبل خود را متوجه شوید.
۱.پارتیشن تیبل MBR و بوت BIOS (legacy)
در این حالت، شما تنها میتوانید ۴ پارتیشن primary ایجاد کنید و همچنین نهایت اندازه پارتیشن شما ۲ ترابایت خواهد بود. در صورتی که بیش از ۴ پارتیشن نیاز داشتید، میتوانید یک پارتیشن extended بسازید و زیر مجموعههای آن را logical درست کنید. شما در این حالت، محدودیت تعداد (در حد نیاز حداقل) ندارید.
اگر می خواهید علت محدودیت ۴ پارتیشن پرایمری و ۲ ترابایت فضا را بدانید به اینجا مراجعه کنید.
ساختار پارتیشنهای شما به صورت پیشنهادی می تواند به شکل زیر باشد:
/boot: 500-800 MB
/ : 45 - 50 GB
swap: (اگر نیاز دارید)
/home: OTHER
شما حتماً باید پارتیشن boot را bootable نمایید.
اگر پارتیشن boot ایجاد نمیکنید، باید / را bootable کنید.
دستور برای نصب/کانفیگ گراب در این حالت داخل آرچ/فدورا:
$ grub-install --target=i386-pc /dev/sdX
$ sudo grub-mkconfig -o /boot/grub/grub.cfg
۲.پارتیشن تیبل gpt و بوت UEFI
در این صورت، شما محدودیت تعداد پارتیشن نخواهید داشت. بنابراین به صورت دلخواه پارتیشنهای خود را ایجاد کنید. اما الزاما باید دایرکتوری efi را ایجاد نمایید.
پارتیشن بندی پیشنهادی برای این حالت:
/boot/efi : 300 MB
/boot : 500-800 MB
/ : 45 - 50 GB
swap : (اگر نیاز دارید)
/home : OTHER
در این حالت شما نیاز به bootable کردن پارتیشنی نخواهید داشت.
تنها نیاز است که به پارتیشن efi فلگ esp زده شود.
شاید زیاد ببینید که به جای
/boot/efi
مسیر
/efi
در سمپل ها است.اما فرقی ندارد، هر توزیعی طبق سیاست خود پیشنهاداتی می دهد.
در این حالت شما برای نصب/کانفیگ۳ گراب نیاز به دستور زیر دارید :
$ grub-install --target=x86_64-efi --efi-directory=esp --bootloader-id=GRUB
$ grub-mkconfig -o /boot/grub/grub.cfg
۳.پارتیشن تیبل GPT و بوت BIOS
این حالت دقیقا همانند حالت ۱ است با این تفاوت که شما نیازمند پارتیشن BIOS boot partition هستید. تنها کافیست این پارتیشن را با حجم 1MB ایجاد نمایید و سایر موارد را مشابه مرحله اول ایجاد کنید. شما در این حالت به علت GPT بودن پارتیشن تیبل با محدودیت های MBR روبرو نخواهید بود.
#لینوکس
#grub #partitioning #installation #uefi #legacy
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
مجموعه پادکست
کاربردهای هوش مصنوعی در کسب و کار
بخش نهم: سیلزفورس (Salesforce)
برخی مطالب پوشش داده شده:
- تاریخچه سیلزفورس
- بررسی صنعت اجاره نرمافزار
- مدیریت ارتباط با مشتریان (CRM)
- کاربردها و ابعاد CRM
- انیشتین: مغز هوشمند Sf
- بررسی قابلیتهای مختلف انیشتین
- ابعاد سرمایهگذاری Sf در هوش مصنوعی
- کاربرد هوش مصنوعی در فروش، خدمات، بازاریابی و تجارت
📚 مراجع
1️⃣ کتاب Artificial Intelligence in Practice، انتشارات وایلی، ۲۰۱۹ [+]
2️⃣ مدخل SaaS در ویکیپدیا [+]
3️⃣ مقالهای درباره SaaS در cio.com [+]
4️⃣ توضیحات محصول انیشتین در سایت سیلزفورس [+]
5️⃣ بررسی دستاوردهای Sf در حوزه هوش مصنوعی در wired.com [+]
6️⃣ بررسی انیشتین در وبسایت computerworld.com [+]
7️⃣ بررسی انیشتین در وبسایت softwareadvice.com [+]
8️⃣ بررسی قابلیتهای صوتی انیشتین در وبسایت venturebeat.com [+]
✴️ شنیدن این اپیزود در دیگر پلتفرمها
🎧 کستباکس [+]
🎧 اینستاگرام [+]
#پادکست #هوش_مصنوعی
ـــــــــــــــــــــــــــ
سید مصطفی کلامی هریس
وبسایت: kalami.ir
کانال رسمی: @KalamiHeris
کانال پرسش و پاسخ: @Kalami_QA
|
شرکت داده پردازی نیک آفرین جهت تکمیل تیم فنی دپارتمان هوش مصنوعی خود در شهر تهران (پاره وقت و تمام وقت) به دنبال جذب تعدادی نیرو در حوزه های تخصصی زیر می باشد:
🔶 بینایی ماشین و پردازش تصویر
🔶 پردازش و تحلیل صوت
🔶 پردازش زبان طبیعی
🔶 پردازش سری های زمانی
❇️ مهارت های اختصاصی
• تسلط به زبان های برنامه نویسی و کتابخانه های رایج یادگیری ماشین/یادگیری عمیق
• آشنایی کافی با زبان انگلیسی برای استفاده از منابع انگلیسی
• تجربه کار کردن با GitHub (مزیت محسوب می شود)
• تجربه کار کردن با سیستم عامل لینوکس و اسکریپت نویسی (مزیت محسوب می شود)
• توانمندی در مستند سازی پروژه (مزیت محسوب می شود)
❇️ ویژگی های فردی
• دارای روحیه تیمی و اخلاق حرفه ای کاری
• با انگیزه و علاقه مند به حل مسئله و ارائه راه حل های جدید
• مسئولیت پذیر، پیگیر و منظم در کارها
• دارای روحیه یادگیری بالا و جستجو در اینترنت
❇️ معرفی شرکت
دپارتمان هوش مصنوعی شرکت داده پردازی نیک آفرین با هدف اولیه طراحی سیستم های امنیتی و توسعه سامانه های پردازش تصویر مبتنی بر هوش مصنوعی آغاز به فعالیت نموده است و در حال گسترش فعالیت های خود به دیگر حوزه های تجاری می باشد. پروژه های کنونی این واحد در حوزه های حفاظت، ایمنی و امنیت،حمل و نقل و زیست فناوری می باشد.
☯️ متقاضیان می توانند رزومه کاری خود را به آدرس ایمیل شرکت به نشانی [email protected] ارسال نمایند. |
16 منبع آموزشی الگوریتمهای هوش مصنوعی〰️〰️〰️
♾ 1. Speech and Language Processing by Dan Jurafsky and James Martin
🔊 2. Deep Learning for Natural Language Processing by Richard Socher (Stanford University)
🔔 3. Natural Language Processing (NLP) by Microsoft
🔸 4. Andrew Ng’s course on Machine Learning
🔸 5. The video lectures and resources for Stanford’s Natural Language Processing with Deep Learning
🔰 Part 2
🔹6. Sequence Models for Time Series and Natural Language Processing
🔺 7. Deep Natural Language Processing course offered in Hilary Term 2017 at the University of Oxford.
🔺 8. Natural Language Processing Fundamentals in Python by Datacamp
🔺 9 Natural Language Processing by Higher School of Economics
🔸 10 How to Build a Chatbot Without Coding by IBM
🔸 11. CS 388: Natural Language Processing by University of Texas
🔸 12. Natural Language Processing with Python
⚡️ 13. CSEP 517: Natural Language Processing by University of Washington
🔰 14. Dan Jurafsky & Chris Manning: Natural Language Processing
📘 15. NATURAL LANGUAGE PROCESSING by Carnegie Mellon University
📘 16. CS224n: Natural Language Processing with Deep Learning by Stanford University
#منابع #یادگیری_ماشین #فیلم #کلاس_آموزشی #الگوریتمها #پردازش_زبان_طبیعی #هوش_مصنوعی #یادگیری_عمیق
join👇👇👇
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
Andriy Burkov
It's annoying that people writing about machine learning and statistics use the word "sample" in the sense of a single training example. For example, they could write "a model takes a sample as input and outputs a prediction." You have no idea, whether the model takes one or several elements as input and how many outputs it yields. A sample is a randomly chosen *collection* of examples from a larger collection. So, a sample is a group of examples, not an individual example. Sample and example cannot be used interchangeably. Doing so in your text makes it very hard to follow and could even make the entire text useless.
Vadim:
CS people in general have a problem with correct terminology. Like, using "vector" to mean variable-length array. (Never mind than few ever heard of pseudovectors:) Or "integer" to mean elements of finite multiplicative ring Z/nZ. Or calling floating point values -0 and +0 "zeros" (they're infinistemals, not zeros). And the best of it: "software engineers".
Sorry, folks, artisans are not engineers.
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
AI is a Lie
Imagine this to be true for a moment Imagine
there’s a group of few weird animals who are pretending to be ‘AI’
These animals have one special power
Whenever you ask them a question they would reply back with a decision
But your question should be supported with some examples for them to learn from
For example:
- If I ask the animals to determine whether a person is happy or sad
The animals would need to be first trained through some examples in order to understand the 2 types of emotions
Sadly their decisions won’t be perfect always
But if you keep training them with more examples they are likely to improve their decision making abilities
Also there are various types of these animals some who require less examples while some who require more It’s your call to choose which animal should answer your question You can even choose mutliple animals This is how ML works in real-life too ML models (Animals) learn through examples and takes decisions based on the input given It’s your call to choose which model The output won’t be perfect always But if you keep on training your model with relevant new examples It’d learn to improvise What would you want these animals to do for you? #machinelearning #datascience #artificialintelligence |
We are hiring a "Search Engineer"
The Opportunity:
Myket Android Store is looking for top Back-End/Search engineer to join our software engineering team and help drive the future of our data and insight platform. As a member of the Myket's back-end team you will be working on various components of the search platform - search ranking, search query interpretation, index data modeling and pipelines. Responsibilities will include design, development and maintenance of core search components that serves millions of customers.
Education Details:
* BS or MS in Computer Science or related domains.
Key Qualifications:
* Good understanding of server-client protocols, algorithms and data structures
* Experience developing high quality, high performance Server Software in C#, Java, or Python
* Good understanding of HTTP server architecture, Information Retrieval techniques
* Understanding of IO issues, disk and network
* Ability to quickly prototype ideas and using creative approaches for solving complex problems.
* Strong communication skills with ability to facilitate conversations with team members regarding project definition, business requirements definition and functional design sessions
Pluses:
* Experience with and background in Information Retrieval, Ranking Systems, Recommendation Systems or Artificial Intelligence
* Experience with Search Engines, Machine Learning, and/or Natural Language Processing (particularly Solr/Lucene/Elastic)
* Experience in RDBMS & NOSQL database
* Experience in REST API design and some experience building software based on a micro services software architecture
Please send you resume to [email protected] or contact me for more details: @rahimiaan |
وقتی مهندسان مکانیک به کمک پزشکان جهت کنترل بیماری کوید ۱۹ می آیند.
#covid19 #coronavirus
#HVAC_Savalan
در این مقاله که اخیرا چاپ شده، بنده افتخار مسئولیت نویسندگی آن را بر عهده داشتم. در این مقاله ما با معرفی و ساخت یک نوع مبدل حرارتی طولی هوا به هوا و قرار دادن آن در کانال خروجی سیستم های تهویه مطبوع بیمارستانی، ایروسول حاوی ذرات کرونا ویروس جدید را گرم می کنیم و این امر باعث از بین رفتن این ویروس در مسیر خروجی کانال می شود. بی شک بسیاری از ماها هنگام عبور از اطراف بیمارستان ها و محل های نگه داری بیماران کوید ۱۹، دچار دلهره و استرس می شویم. شاید دلیل آن سیستم های تهویه مطبوع بیمارستانی باشد که این ویروس را به اطراف پخش می کنند. در این مقاله به خوبی مکانیزم انتقال این بیماری از طریق ایروسول توضیح داده شده است. اخیرا سازمان بهداشت جهانی هم در رابطه با انتقال این بیماری از طریق هوا تاکیداتی داشتند، که صحه ای بر ایده ی ما بود. بی شک وظیفه ی ریشه کنی و کنترل این بیماری منحوس به عهده ی پزشکان نیست و ما مهندسان مکانیک چه بسا به صورت اصولی تر می توانیم این بیماری را کنترل و نابود کنیم.
https://doi.org/10.1063/5.0021575
شایان ذکر هست این مبدل حرارتی طولی هوا به هوا در شرکت تاسیساتی ساوالان واقع در تبریز ساخته شده است.
با تشکر
عطا نظری
@AMSopenFOAM |
مجموعه پادکست
کاربردهای هوش مصنوعی در کسب و کار
بخش دهم: امریکن اکسپرس
برخی مطالب پوشش داده شده:
- تاریخچه و سوابق
- اطلاعات مالی و عملکردی
- مشکلات موجود در حوزه پرداخت اعتباری
- تشخیص تقلب
- حفظ و بهبود تجربه مشتریان
- تشخیص پرداختهای تقلب و غیر مجاز
- دستیار Mezi
- افزایش امنیت تراکنشها با دستیار شخصی
- آشنایی با Apache Hadoop
- بررسی نتایج به دست آمده
📚 مراجع:
1️⃣ کتاب Artificial Intelligence in Practice، انتشارات وایلی، 2019
2️⃣ مدخل American Express در ویکیپدیا
3️⃣ گزارش مصور شرکت Amex در سال 2018
4️⃣ گزارش نیلسون در زمینه ابعاد مالی تقلب در کارت اعتباری
5️⃣ بررسی کاربردهای یادگیری ماشین در تشخیص تقلب
6️⃣ رویکرد Amex برای استفاده از یادگیری ماشین
7️⃣ شرکت Amex چطور از کلانداده و هوش مصنوعی استفاده میکند؟
8️⃣ یادگیری ماشین در شرکت American Express
✴️ شنیدن این اپیزود در دیگر پلتفرمها
🔗 کستباکس [+]
🔗 اینستاگرام [+]
#پادکست #هوش_مصنوعی
ـــــــــــــــــــــــــــــــــ
سید مصطفی کلامی هریس
وبسایت: kalami.ir
کانال رسمی: @KalamiHeris
کانال پرسش و پاسخ: @Kalami_QA
|
📌استخدام کارشناس زیرساخت
📌شرکت: هلدینگ مالی بانکی
📌 محل کار: تهران
✅مهارت و تخصصهای مورد نیاز:
🔺تسلط به تنظیمات فایروالها و UTMها و آشنایی کامل با رخدادهای آنها
🔺تسلط به مجازی سازیVMware و نرم افزارهای مرتبط
🔺تسلط به VCenter و VMware view، virtualization
🔺آشنا و مسلط به راهاندازی خصوصیات پیشرفته مثلStorage DRS، DRs،VMotion،FT،HA
🔺آشنا و مسلط به مجازی سازی دسکتاپ (VDI)
🔺 آشنا و مسلط بهStorage and SAN Switch Optimization
🔺مسلط به پیاده سازی و نگهداری زیر ساخت پشتیبانگیری از سیستمهای مجازی و فیزیکی
🔺 مسلط به نرم افزار مانیتورینگVMware vROPS و Veeam ONE
🔺آشنا و مسلط به راهاندازی،نگهداری و بهروز رسانی انواع سرورهایHP
🔺مسلط به مفاهیمMCITP
🔺آشنایی با ساختارهای Container و Orchestration
🔺آشنایی با ساختار های ابری
✅توانایی عمومی:
🔹انجام کار گروهی
🔹استفاده روان از متون انگلیسی تخصصی مرتبط
🔹دارای پشتکار ،پیگیر و توانایی پیشبرد اهداف سازمانی
🔹آشنایی کلی با مفاهیم خدمات فناوری اطلاعات
🔹۵سال سابقه کار مفید مرتبط همراه با رزومه مناسب
🔈قرارداد همکاری به صورت پاره وقت و پروژه محورتنظیم خواهد شد.
📣ارسال رزومه به
[email protected]
🔘خواهشمند است، رزومه خود را با عنوان کارشناس زیر ساخت ارسال بفرمایید.
➖➖➖➖➖➖➖➖➖➖
🔗کارشناس #زیر_ساخت
#استخدام
#پاره_وقت
#mcitp #vm #vmware #sys_admin |
📌استخدام کارشناس دادهکاوی
📌شرکت: هلدینگ مالی بانکی
📌محل کار: تهران
✅ تخصص مورد نیاز:
🔍تسلط به زبان برنامه نویسیPython
🔍تسلط به مفاهیم web/Social Media Scraping و توانایی و تجربه ساخت انواع Crawler با کتابخانه های پایتون
🔍آشنایی با مفاهیم دادههای ساختار یافته و غیر ساختار یافته و نیز پایگاه دادههای SQL و NoSQL
🔍آشنایی کافی با مفاهیم تحلیل کلان داده ،دستهبندی و خوشهبندی دادهها،گرافکاوی و تحلیل شبکهها
🔍آشنایی کافی با روشها و ماژولهای متنکاوی،پردازش زبان طبیعی(NLP) و یادگیری ماشین
🔍آشنایی با سیستم عامل لینوکس، Docker و بازارهای مالی امتیاز محسوب میشود.
📍فارغ التحصیل رشتههای فنیمهندسی(به ویژه مهندسی کامپیوتر )،علوم پایه،اقتصاد،آمار،مهندسیمالی و ریاضیات مالی
🔹حداقل دوسال سابقه کارمرتبط و اجرای حداقل یک پروژه مرتبط
🔹قرارداد همکاری به صورت پارهوقت و پروژهمحورتنظیم خواهد شد. در صورت جلب نظرکارفرما امکان تبدیل به قرارداد تمام وقت نیز وجود دارد .
🔹فرآیند مصاحبه با افراد واجد شرایط، شامل آزمون فنی میشود.
🔹داشتن کارت پایان خدمت برای آقایان ضروری نیست.
🔹توانایی همکاری بلندمدت توانایی حل مساله ،علاقمند به کار تیمی،باانگیزه و اخلاق مدار،خلاق و نوآور،دقیق و منظم،پیگیر و متعهد
📣ارسال رزومه به :
[email protected]
🔘خواهشمند است رزومه خود را با عنوان کارشناس دادهکاوی ارسال بفرمایید.
➖➖➖➖➖➖➖➖➖➖➖
🔗کارشناس #داده_کاوی
#استخدام
#پاره_وقت
#متن_کاوی #پایتون #scraping |
- بیزینس دیزاینر کیست و چه کاری انجام میدهد؟
این روزها خیلیها از من میپرسند که بیزینس دیزاینر کیست و چه کاری انجام میدهد؟ تفاوت او با سرویس دیزاینر و یا یو ایکس دیزاینر چیست؟
من در این یادداشت سعی کردم که خیلی ساده توضیح بدهم که من به عنوان بیزینس دیزاینر چه کاری انجام میدهم:
بیزینس دیزاین شاید یک شغل خیلی جدید نباشد. درواقع بیزینس دیزاین ترکیبی از مهارتهایی است که شاید در حال حاضر نیز به صورت پراکنده و جزیرهای توسط افراد مختلف در یک شرکت انجام میشود. اما در بازار رقابتی امروز که نیاز به نوآوری و ورود به بازارهای جدید به یک امر ضروری تبدیل شده و شرکتها نیاز دارند تا دائما محصولات و خدمات خود را بازطراحی و یا نوآفرینی کنند، نقش بیزینس دیزاین پررنگتر از گذشته و به صورت فرآیندی منسجم از فعالیتها و مهارتهای مختلف نمود پیدا میکند.
- بیزینس دیزاین چیست؟
بیزینس دیزاین به معنای به کارگیری رویکردی انسان-محور به نوآوری در کسبوکار است. درواقع بیزینس دیزاینر از متودها و ابزارهای تفکر دیزاین برای کمک به شرکتها به منظور طراحی ارزش پیشنهادی جدید و ساخت مزیت رقابتی پایدار کمک میکند. بیزینس دیزاین ترکیبی از درک عمیق و همدردی با کاربر، شناخت بازار کسبوکار و طراحی تجربه مشتری و تدوین استراتژی های کسبوکاری متناسب با آن است.
- بیزینس دیزاینر چه کاری انجام میدهد؟
بیزینس دیزاینر معمولا فردی خارج از شرکت است که برای کمک به طراحی مزیت رقابتی، ورود به بازار جدید و یا طراحی محصول/ سرویس جدید به کمک مدیران شرکتها میآید. و تمام فرآیند از شناسایی فرصتهای موجود، طراحی ایده و کمک به لانچ ایده در بازار کارفرما را همراهی میکند.
- یوزر ریسرچ و مطالعه بازار
یکی از مهمترین بخشهای کاری بیزینس دیزاینر، شناخت بازار و مخاطبان هدف است. این بخش مانند تحقیقات بازار سنتی خیلی با آمارها و ارقام و ترندهای بازار کار ندارد بلکه بیشتر سعی میکند بفهمد که بازار به چطور در حال تغییر شکل است، کاربران چطور رفتارهای جدیدی را از خود نشان میدهند، تکنولوژیهای جدید چطور ممکن است روی نیاز و رفتار مخاطبان تاثیرگذار باشد و در واقع سعی در پیشبینی آینده و سناریوهای محتمل دارد. سناریوهایی که نه تنها شکل بازار به طور کلی را پیش بینی میکند بلکه رابطه بین بازیگران اصلی بازار، کاربران و مصرف کنندگان و الگوهای رفتاری آنان را پیش بینی و مطالعه میکند.
هدف اصلی در این مرحله کشف فرصتهای جدید برای خلق محصول/سرویس و یا حتی طراحی مدلهای جدید ارتباطی با مخاطبان برای اثرگذاری بیشتر و ایجاد تمایز پایدار در مقایسه با رقبا است.
- طراحی مدل کسبوکار /مفهوم ارزش پیشنهادی
از میان دیکرشنهایی که در مرحله قبل به آن رسیدهایم سعی میکنیم که یک یا دو کانسپت را بیشتر پرورش دهیم و آن را عینیتر کنیم. یکی از روشها بسته به نوع پروژه، طراحی مدل کسبوکاری جدید میتواند باشد. لازم است ببینیم که کانسپهای طراحی شده را چطور میتوان در قالب یک کسبوکار تعریف کرد. البته همیشه هم خروجی این بخش یک مدل کسبوکار جدید نیست. بلکه ممکن است کانسپت را در قالب یک ابزار تکمیلی کنار کسبوکار اصلی تعریف کنیم. برای مثال ابزاری برای جذب مشتریان بالقوه (lead generation tool) که در کنار محصول اصلی کانال جذابی برای جذب کاربر در اختیارمان قرار دهد. یا حتی استراتژی برند و بازاریابی به عنوان خروجی این بخش ممکن است تعریف شود. همه اینها براساس نوع پروژه و هدفی که به دنبال آن هستیم میتواند متغیر باشد.
در کنار طراحی کانسپتها، بیزینس دیزاینر تلاش میکند تا با تیمهای دیگر چشمانداز کانسپت طراحی شده را به اشتراک بگذارد، ذینفعان اصلی را با سناریوهای پیشنهادی آشنا کند، استراتژیها و فرآیندهای لازم برای پیاده سازی ایده را آماده کند و آموزشهای لازم برای اجرایی شدن آنها را در اختیار تیمهای مرتبط بگذارد.
- طراحی پروتوتایپ و تست آن در بازار
پس از آنکه خروجی کار را تعریف کردیم لازم است تا نمونه اولیهای از آن را بسازیم تا بتوانیم هرچه سریعتر آن را در فضای واقعی تست کنیم. اگر ایده یک مدل محصول جدید باشد در قالب یک پروتوتایپ ساده که حداقل ویژگیهای ضروری را دارد طراحی میشود و در مرحله فیدبک جمع کوچکی از مخاطبان مثلا ۵۰۰ نفره را دریافت میکنیم و براساس فیدبکها مدل کسبوکاری و یا ایده اصلی را اصلاح میکنیم. مرحله طراحی و تست پروتوتایپ معمولا بازهای دوماهه است که در نهایت با جمع بندی نظرات و عملکرد ارزیابی شده میتوان به جمع بندی نهایی دست پیدا کرد و فاز عملیاتی اصلی ایده شروع خواهد شد.
👈 لینک اصلی مطلب
@oldfashioned7 |
📌استخدام کارشناس برنامهنویس
📌شرکت: هلدینگ مالی بانکی
📌 محل کار: تهران
✅مهارت و تخصصهای مورد نیاز:
🔺تسلط به Net Core.
و Net Framework.
🔺تجربه کار با Angular
🔺تسلط به مفاهیم مدلسازی و طراحی بانکهای اطلاعاتی
🔺تسلط به مفاهیمJquery وCSS و همچنینMVC
🔺 تسلط کامل به زبان SQL و پیادهسازی بانکهای اطلاعاتی با استفاده از Microsoft Sql server و اوراکل
🔺آشنایی به کار با دیتابیسهایSQL/NoSQL
🔺 تسلط بر تحلیل و طراحی و ابزار مرتبط
🔺تجربه طراحی دیتابیس با تراکنشهای بالا
🔺تسلط به ابزارهای مانیتورینگ دیتابیس و آشنایی با Replication
🔺آشنایی با Git/TFS
🔺آشنایی با Swarm و Docker
🔺آشنایی با مفاهیم BI و ابزارهای موجود در این ارتباط
✅توانایی عمومی:
🔹انجام کار گروهی
🔹توانایی استفاده روان از متون انگلیسی تخصصی مرتبط
🔹حداقل مدرک کارشناسی در یکی از رشتههای مرتبط با فناوری اطلاعات
🔹برخورداری از دانش و تجربه کافی در زمینه برنامهنویسی و طراحی شئگرا
🔹آشنایی کافی با مفاهیم معماری نرمافزار و معماریهای چند لایه و توزیع شده
🔹شناخت فرایند مهندسی نرمافزار 🔹آشنایی با مفاهیم RUP و متدلوژیهای Agile
🔹 کمک به مدیریت پروژه در برنامهریزی پروژه
🔹آشنایی با دستکم یکی از مدلهای ارزیابی فرایند
🔹۳سال سابقه کار مفید
🔈قرارداد همکاری به صورت پاره وقت و پروژه محورتنظیم خواهد شد.
📣ارسال رزومه به
[email protected]
🔘خواهشمند است، رزومه خود را با عنوان کارشناس برنامهنویس ارسال بفرمایید.
➖➖➖➖➖➖➖➖➖➖
🔗کارشناس #برنامه_نویس
#استخدام
#پاره_وقت
#dot_Net_core #dot_Net_framework
#MVC #HTML #CSS #angular
#JQuery #SQL #NOSQL
#Git #Docker
#BI |
📌استخدام کارشناس DBA
📌شرکت: هلدینگ مالی بانکی
📌 محل کار: تهران
✅مهارت و تخصصهای مورد نیاز:
🔺حداقل تجربه ۳سال کار با پایگاهدادههای اوراکل وMicrosoft Sql server
🔺تسلط به oracle RMAN
🔺آشنایی با OEM
🔺تجربه عملیاتی راهکار HA نظیر RAC، Data Guard و....
🔺تجربه عملیاتیCluster
🔺تجربه راهاندازی راهکارهای Restore/Backupوراکل
🔺تجربه مناسب در زمینه طراحی، مانیتورینگ پایگاه دادهها و سیستم عامل
🔺 تجربه در VLDB وvery high volume of transactions
🔺مسلط به نگهداری و بازیابی اطلاعات دیتابیس(Backup, Restore, Disaster recovery)
🔺مسلط به ایجادMaintenance plan جهت اجرای روتینهای نگهداری دیتابیس
🔺توانایی بهینهسازی پایگاه دادهها(Tuning & Optimization)
🔺آشنایی با پایگاه دادههای NOSQL
✅توانایی عمومی:
🔹انجام کار گروهی
🔹استفاده روان از متون انگلیسی تخصصی مرتبط
🔹دارای پشتکار ،پیگیر و توانایی پیشبرد اهداف سازمانی
🔹آشنایی کلی با مفاهیم خدمات فناوری اطلاعات
🔹۵سال سابقه کار مفید مرتبط همراه با رزومه مناسب
🔹امکان پاسخگویی تلفنی در ساعات غیر اداری در صورت لزوم
🔈قرارداد همکاری به صورت پاره وقت و پروژه محورتنظیم خواهد شد.
📣ارسال رزومه به
[email protected]
🔘خواهشمند است، رزومه خود را با عنوان کارشناس DBA ارسال بفرمایید.
➖➖➖➖➖➖➖➖➖➖
🔗کارشناس #DBA
#استخدام
#پاره_وقت
#Oracle #NOSQL #optimization
#VLDB |
16 منبع آموزشی الگوریتمهای هوش مصنوعی〰️〰️〰️
♾ 1. Speech and Language Processing by Dan Jurafsky and James Martin
🔊 2. Deep Learning for Natural Language Processing by Richard Socher (Stanford University)
🔔 3. Natural Language Processing (NLP) by Microsoft
🔸 4. Andrew Ng’s course on Machine Learning
🔸 5. The video lectures and resources for Stanford’s Natural Language Processing with Deep Learning
🔰 Part 2
🔹6. Sequence Models for Time Series and Natural Language Processing
🔺 7. Deep Natural Language Processing course offered in Hilary Term 2017 at the University of Oxford.
🔺 8. Natural Language Processing Fundamentals in Python by Datacamp
🔺 9 Natural Language Processing by Higher School of Economics
🔸 10 How to Build a Chatbot Without Coding by IBM
🔸 11. CS 388: Natural Language Processing by University of Texas
🔸 12. Natural Language Processing with Python
⚡️ 13. CSEP 517: Natural Language Processing by University of Washington
🔰 14. Dan Jurafsky & Chris Manning: Natural Language Processing
📘 15. NATURAL LANGUAGE PROCESSING by Carnegie Mellon University
📘 16. CS224n: Natural Language Processing with Deep Learning by Stanford University
#منابع #یادگیری_ماشین #فیلم #کلاس_آموزشی #الگوریتمها #پردازش_زبان_طبیعی #هوش_مصنوعی #یادگیری_عمیق
join👇👇👇
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
🌀📣 اطلاع رسانی مهم
دوستان سلام.
به تازگی پست هایی منتشر می شود که موقعیت های دکتری و پست دکتری در اروپا و آمریکا را نشان می دهند و درخواست رزومه می کنند.
⛔️ لطفا به همه آنها اعتماد نکنید و تا زمانی که از صحت آگهی مطمئن نشدید از ارسال رزومه، پول و غیره خودداری کنید.
اخیرا برای چندمین بار فردی در جامعه علمی اروپا خبرساز شده است که با ساختن یک سایت دانشگاه با نام جعلی، ایجاد رزومه برای خود و ثبت مقالات دیگران به نام خود در ریسرچ گیت و نشان دادن رزومه علمی ساختگی و حتی بازگشایی دفتر و شرکت از بسیاری کلاهبرداری کرده است. آنها علاوه بر سعی در دریافت پول، رزومه شما را به بنگاه های کاریابی و وبینارها و غیره می فروشند و موقعیت اعلامی کاملا جعلی است.
در زمانی که به علت کرونا و ممنوعیت سفر برخی کشورها، حتی افراد ساکن هم امکان تردد ندارند موقعیت دکتری را تبلیغ می کنند!!
😳 این در حالی است که شما سایت جعلی دانشگاه را می بینید، صفحه شخصی استاد جعلی را می ببینید، در بانک های اطلاعاتی علمی فهرست مقالات جعلی ایشان موجود است و ...
ℹ️ این پست صرفا جهت آگاهی به مخاطبان عزیز منتشر شده و امیدوارم دوستان متخصص با توجه به پیچیدگی این نوع کلاهبرداری جدید، دقت لازم را داشته باشند.
لطفا دقت بفرمایید:
۱- این پیام شامل افراد یا شرکت های فعال سالم در این حوزه نمی شود گرچه تشخیص آنها سخت شده است.
۲- این کانال در این ارتباط هیچ فعالیتی ندارد و از ارسال سوال یا درخواست برای ادامه تحصیل جدا خودداری کنید. صرفا جهت اطلاع رسانی و هشدار به همراهان گرامی کانال بود.
🤳لطفا این پیام را هم رسانی کنید تا دوستانتان مطلع شوند و دقت کنند.
@IASE_ISLP
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
✔️ فردیت ما چطور میتواند به کسبوکارمان تبدیل شود؟
در پست اول در این رابطه صحبت کردیم که چطور به جای آنکه زمانمان را بفروشیم، محصول بفروشیم. محصول هم مثل زمانهای قدیم به معنای یک محصول فیزیکی نیست. محصول میتواند انواع مختلف داشته باشد. حتی محصول میتواند خود شما باشید
.
شاید بپرسید یعنی چه که محصول خود ما باشیم؟
خود شما، یعنی فردیت، جهانبینی، علایق، سلیقه، دانش و تجربیات شما میتواند به محصول تبدیل شود.
مثال خیلی ساده آن، شخصی که سلیقه خوبی در موسیقی دارد، عاشق این است که ساعتهای زیادی را در اسپاتیفای بچرخد و هنرمند جدیدی را کشف کند و یا در رابطه با گروههای موسیقی و سبکهای موسیقی مختلف تحقیق کند. این فرد، سلیقه و به قول خارجیها Taste خودش در موسیقی را میتواند به محصولی تبدیل کند و آن را بفروشد.
یا مثلا یکی از پردرآمدترین خبرنامههای هفتگی به نام The browserاست که بیشتر از پنجاه هزار عضو دارد که ماهانه ۵ دلار برای خواندن مطالبش پرداخت میکنند. این آقا کارش این است که روزانه بالای ۱۰۰۰ مطلب در اینترنت را میخواند و از این بین تعداد انگشتشماری که به نظرش جالب هستند را جمعاوری میکند و یادداشت کوتاهی را هم در رابطه با هرکدام مینویسد و برای اعضای خبرنامهاش میفرستد. درواقع او همان محتوای مجانی روی وب را به اعضای خبرنامهاش میفروشد و ماهانه درآمدی در حدود ۲۵۰ هزار دلار دارد. او هم جزو کسانی است که کنجکاوی و زاویه دید مخصوص به خودش را میفروشد.
شروع و رشد passion economy
دنیا شاید برای اولین بار است که به ما آدمها اجازه میدهد که از فردیت خودمان پول زیادی بسازیم. بدون آنکه نیاز باشد در قالب یک شرکت و یا یک مجموعه حقوقی فعالیت کنیم.. در نتیجه این تغییرات اقتصاد جدیدی به نام Passion economy شکل گرفته است. اقتصادی که تمرکزش روی هموار کردن مسیر افرادی است که دوست دارند علاقه و فردیت منحصر به فردشان را تبدیل به راه درآمدی خود کنند.
یکی از قشنگترین مثالهایی که در این چند وقت با آن برخورد داشتم، شخصی است که یک دوره آموزشی آنلاین تهیه کرده که موضوعش این است: شما چطور میتوانید یک ماشین گرانقیمت را بخرید، یک سال سوارش بشید و بعد از آن با قیمت خوبی ماشین را بفروشید!
این فرد در سال بیش از ۶ میلیون دلار از فروش این دوره آنلاین درآمد دارد.
این مثال را زدم تا بهتر بتوانم توضیح دهم که درآمدزایی از فردیت و یا اینکه توانمندیهای خود را به محصول تبدیل کردن چه طور کار میکند. برای این کار لازم است که بتوانید کنجکاوی و دانش خود را در موضوع خیلی خاصی متمرکز کنید. روی آن موضوع حسابی تحقیق و تجربه کنید و از اول این فرآیند به صورت عمومی در رابطه با مسیر خودتان تولید محتوا کنید. این تولید محتوا امروز از روشهای متعددی میتواند انجام شود. بلاگ پست نوشتن، پادکست ساختن، ویدیو ساختن، توییت کردن، فعالیت در اینستاگرام و یا تیکتاک. هرکدام از این پلتفرمها بسته به فرم خود برای انواع خاصی از موضوعات میتواند موثر باشد.
به اشخاصی که میتوانند خودشان را به محصول تبدیل کنند به صورت کلی، creator گفته میشود.
کریتورها، کارآفرینهایی هستند که به صورت شخصی کار میکنند.
درواقع میتوانیم اینطور این روند را تشریح کنیم:
فرض بگیریم که در دنیای قدیم فقط شرکتها و سازمانهای بزرگ فعال بودند و بسیاری از زیرساختهای فنی مثل نرمافزارهای مدیریت ارتباط با مشتری، نرمافزارهای حسابداری و… برای کمک به این سازمانهای بزرگ طراحی میشد.
در موج بعدی استارتاپها که شرکتهای کوچکتر و چابکتری بودند به وجود آمدند که میتوانستند با بهرهگیری از تکنولوژی با تعداد افراد کمتری درآمدهای قابل توجهی بسازند و بسیاری از شرکتها هم برای کمک به این استارتاپها به وجود امدند تا زیرساختهای لازم را متناسب با نیازشان در اختیار انها قرار دهند. مثل ابزارهای مدیریت پروژه تیمی، مدیریت حسابداری سبکتر و ارزانتر و …
در حال حاضر هم این افراد هستند که میتوانند با استفاده از قدرت اینترنت و شبکههای اجتماعی به تنهایی درآمدهایی به اندازه شرکت ها تولید کنند و امروز شاهد این هستیم که ابزارهای بسیاری برای کمک به این افراد در حال شکلگیری است. ابزارهایی که کمک میکند تا این افراد بدون درگیر شدن با تکنولوژی و یادگیری فنی بتوانند محصولاتشان را بفروشند و درآمدزایی کنند و این کسبوکار تک نفره را اداره کنند. این همان اقتصاد passion economy است که از شروع کرونا اندازه بازارش ۵ برابر شده است. با سرعت بالایی در حال رشد است و تعداد کریتورها و همچنین ابزارهایی که به کریتورها اجازه میدهد تا بتوانند کسبوکارشان را شروع کنند روز به روز بیشتر و بیشتر میشوند.
@shahrzadinHK
@oldfashioned7 |
یکی از بیشترین سوالاتی که پرسیده میشه اینه که از کجا و چطور باید شروع کنم (یادگیری عمیق) توی این پست میخوام به این سوال پاسخ بدم (تاریخ : ۱۴ آذر ۱۳۹۹)
افرادی که این سوال رو میکنند معمولاً دو دسته هستند اونهایی که آکادمیک بصورت خیلی جدی دنبال کردند و تئوری قضیه رو بلدند و اونهایی که هیچ دیدی از تئوری ندارند و بخاطر ترند بودن وارد میشوند.
چندتا فرض : ۱- لینوکس و پایتون رو بلد هستید (پایتون سطح متوسط و لینوکس همون LPIC 1 هم کفایت میکنه)
۲- با خوندن کتاب مشکلی ندارید
۳- قرار هست کلا بیخیال یادگیری به زبان فارسی بشید
این لیست کتابهایی هست که پیشنهاد میکنم :
1- The hundred-page machine learning (Andriy Burkov)
این کتاب برای کسایی هست که یادگیری ماشین رو خیلی خیلی کم میشناسند، قبل از این که بخواید وارد بشید لازمه اول مطمئن بشید همون چیزی هست که فکرشو میکردید.
2- Hands on ML with scikit-learn, keras, tensorflow (2nd edition) (Aurelien Geron)
نیازی به تعریف نداره بهترین کتاب برای شروع کد زدن بدون ریاضیات پیچیده، بهمراه تئوری کافی.
اینجا مرحلهای هست که دانشگاهی و آموزشگاهی و ... و خیلی از افرادی که دارند کار میکنند (حدود ۹۵٪) میزنن جاده خاکی یا درحال پیادهسازی ایدهها و روشهای مختلف هستند یا درحال خوندن مقالات روز دنیا، اینکه شما چقدر تسلط دارید و چقدر عالی مدلهارو ایجاد میکنید ی بحث هست اما اینکه آیا واقعاً این مدل میتونه به تمام مشتریان شما در زمان مناسب پاسخ بده و .... بحث مهمتری هست.
3- Build Machine Learning Powered Application : Going from idea to product (Emmanuel Ameisen)
برای شروع کتاب خوبی هست، البته مطالبی که توی کتابهای قبلی خوندید رو میتونید فقط نگاهی بندازید.
4- Machine Learning Engineering (Andriy Burkov)
مباحث مربوط به سرویس دهی و ... از یک جایی به بعد نیاز به ML engineer داره اما لازمه شما با این مباحث آشنایی کامل داشته باشید مخصوصاً اگر قراره پروژه خودتون رو راه بندازید.
5- Building Machine Learning Pipelines : Automating Model Life Cycle with Tensorflow (Hannes Hapke)
این بخش خیلی خیلی مهمه، قرار نیست تا ابد هر چندوقت یکبار بشینید و بصورت دستی دیتا جدید رو ترین کنید و همه مراحل رو پیش بگیرید باید از data pipeline ها استفاده کنید (چیزی که خیلی خیلی کم دیده میشه)
6- TinyML : Machine Learning with Tensorflow Lite on Arduino and Ultra-Low-Power Microcontrollers (Pete Warden)
شاید هیچ وقت لازم نشه روی این سختافزارها سرویس دهنده باشید، اما چیزهایی که توی این کتاب قرار هست یاد بگیرید واقعاً واجب هست.
7- Practical Deep Learning for Cloud, Mobile, and Edge : .... (Anirudh Koul)
تا اینجا بصورتی بود که خسته کننده نباشه و کدینگ و ... هم پیش بره اما کم کم باید وارد مباحث تئوری و ریاضیات هم شد.
8- d2l.ai
بخش تئوری این کتاب شامل کلی tips and tricks میشه که جالب هستند.
9- deeplearningbook.org
همهی تئوریها و ریاضیاتی که پیچوندید رو باید بالاخره یاد بگیرید :)
امیدوارم این لیست مفید باشه، سعی کردم کتابهایی که خوب هستند یا خودم خوندم و نتیجه گرفتم رو فقط معرفی کنم وگرنه این لیست ادامه دار بود.
امیدوارم مفید باشه 🌹
#چطور_شروع_کنیم |
📌عنوان تخصص: طراح گرافیک
📌شرکت: هولدینگ مالی بانکی
📌محل کار: تهران
📗تواناييهای عمومی مورد نياز:
🔺توانايی کار گروهی 🔺دارای پشتکار، پیگیر و توانایی پیشبرد اهداف سازمانی
🔺آشنایی کلی با مفاهیم خدمات فناوری اطلاعات
🔺3 سال سابقه کار مفید مرتبط همراه با رزومه مناسب
🔺امکان پاسخگویی تلفنی در ساعات غیر اداری در صورت لزوم
🔺تواناييهای تخصصي مورد نياز:
🔺تسلط به Photoshop
🔺 تسلط به Illustrator
🔺دارای ذوق هنری و خلاقیت در طراحی
🔺آشنایی با اصول گرافیک و مبانی هنرهای تجسمی، رنگشناسی، تایپوگرافی، تصویرسازی و صفحهآرایی
🔺آشنایی با فضای مجازی و اصول طراحی در دیجیتال مارکتینگ
🔺طراحی حرفهای پست های شبکههای اجتماعی و وب سایت
🔺سرعت عمل مناسب همراه با دقت بالا
🔺آشنایی با After effects و InDesign امتیاز محسوب می شود.
🟢توضیحات مهم:
🔺قرارداد همکاری به صورت پاره وقت و پروژه محور تنظیم خواهد شد.
🔺به جای اجراکار بودن، بر طراح بودن فرد تأکید وجود دارد.
🔺تسلط یا آشنایی با موشن گرافی امتیاز محسوب می شود.
🔺فقط رزومه هایی که نمونه کار به آن ها پیوست شده، بررسی خواهند شد.
لطفاً رزومه شغلی خود را با عنوان «طراح گرافیک» به آدرس پست الکترونیکی زیر ارسال نمایید:
[email protected]➖➖➖➖➖➖➖➖➖➖➖
#Illustrator #Photoshop #Graphics |
📌عنوان تخصص: متخصص وردپرس و SEO
📌شرکت: هولدینگ مالی بانکی
📌محل کار: تهران
📗تواناييهای تخصصي مورد نياز:
🔺تسلط کامل به SEO فنی یا ON-PAGE
🔺تسلط بر مفاهیم SEO در حوزه محتوا و تکنیک ها و امکانات گوگل
🔺 تسلط کامل به وردپرس و تمامی پلاگین های مهم (از جمله Visual Composer ، Slider Revolution و ...)
🔺توانمند به تغییر و اختصاصی کردن قالب های وردپرس
🔺تسلط کامل به افزونه های امنیتی وردپرس
🔺تسلط به روش ها و اصول بهبود امنیت وردپرس
🔺توانایی ایجاد تغییر و عیبیابی کدهای قالب و افزونهها
🔺سابقه کار با CPanel و Direct Admin
🔺تسلط یا آشنایی کافی به CSS ، HTML، JS ، PHP و MYSQL
🔺توانایی حل مساله، پذیرش چالش ها و ارائه راه حل
🟢توضیحات مهم:
🔺قرارداد همکاری به صورت پاره وقت و پروژه محور تنظیم خواهد شد.
🔺آشنایی با فتوشاپ، طراحی و ... امتیاز محسوب می شود.
لطفاً رزومه شغلی خود را با عنوان «متخصص وردپرس و سئو» به آدرس پست الکترونیکی زیر ارسال نمایید:
[email protected]
➖➖➖➖➖➖➖➖➖➖➖
#WordPress #SEO |
Scientific Data Analysis Team (SDAT) intends to organize the first event on the value of data to provide data holders and data analyzers with an opportunity to extract maximum value from their data. This event is supported by International Statistical Institute (ISI) and SDAT and hosted at the Bu-Ali Sina University, Hamedan, Iran.
Organizers and the data providers will provide more information about the goals of the initial ideas, team arrangement, competition processes, and the benefits of attending this event on a webinar hosted at the ISI Gotowebianr system. Everyone invites to participate in this webinar for free, but it is needed to register at the webinar system by 30 December 2020.
Event Time: 31 December 2020 - 13:30-16:30 Central European Time (CET)
Register for the webinar: https://register.gotowebinar.com/register/8913834636664974352
More details about this event: http://sdat.ir/en/playdata
Aims and outputs:
• Playing with real data by explorative and predictive data analysis techniques
• A platform between a limited number of data providers and hundreds to thousands of data scientist Teams
• Improving creativity and scientific reasoning of data scientist and statisticians
• Finding the possible “bugs” with the current data analysis methods and new developments
• Learn different views about a dataset.
AWARD-WINNING:
The best-report awards consist of a cash prize:
$400 for first place,
$200 for second place, and
$100 for third place.
Important Dates:
Event Webinar: 31 December 2020 - 13:30-16:30 Central European Time (CET).
Team Arrangement: 01 Jan. 2021 - 07 Jan. 2021
Competition: 10 Jan. 2021 - 15 Jan. 2021
First Assessment Result: 25 Jan. 2021
Selected Teams Webinar: 30 Jan. 2021
Award Ceremony: 31 Jan. 2021 |
یکی از بیشترین سوالاتی که پرسیده میشه اینه که از کجا و چطور باید شروع کنم (یادگیری عمیق) توی این پست میخوام به این سوال پاسخ بدم (تاریخ : ۱۴ آذر ۱۳۹۹)
افرادی که این سوال رو میکنند معمولاً دو دسته هستند اونهایی که آکادمیک بصورت خیلی جدی دنبال کردند و تئوری قضیه رو بلدند و اونهایی که هیچ دیدی از تئوری ندارند و بخاطر ترند بودن وارد میشوند.
چندتا فرض : ۱- لینوکس و پایتون رو بلد هستید (پایتون سطح متوسط و لینوکس همون LPIC 1 هم کفایت میکنه)
۲- با خوندن کتاب مشکلی ندارید
۳- قرار هست کلا بیخیال یادگیری به زبان فارسی بشید
این لیست کتابهایی هست که پیشنهاد میکنم :
1- The hundred-page machine learning (Andriy Burkov)
این کتاب برای کسایی هست که یادگیری ماشین رو خیلی خیلی کم میشناسند، قبل از این که بخواید وارد بشید لازمه اول مطمئن بشید همون چیزی هست که فکرشو میکردید.
2- Hands on ML with scikit-learn, keras, tensorflow (2nd edition) (Aurelien Geron)
نیازی به تعریف نداره بهترین کتاب برای شروع کد زدن بدون ریاضیات پیچیده، بهمراه تئوری کافی.
اینجا مرحلهای هست که دانشگاهی و آموزشگاهی و ... و خیلی از افرادی که دارند کار میکنند (حدود ۹۵٪) میزنن جاده خاکی یا درحال پیادهسازی ایدهها و روشهای مختلف هستند یا درحال خوندن مقالات روز دنیا، اینکه شما چقدر تسلط دارید و چقدر عالی مدلهارو ایجاد میکنید ی بحث هست اما اینکه آیا واقعاً این مدل میتونه به تمام مشتریان شما در زمان مناسب پاسخ بده و .... بحث مهمتری هست.
3- Build Machine Learning Powered Application : Going from idea to product (Emmanuel Ameisen)
برای شروع کتاب خوبی هست، البته مطالبی که توی کتابهای قبلی خوندید رو میتونید فقط نگاهی بندازید.
4- Machine Learning Engineering (Andriy Burkov)
مباحث مربوط به سرویس دهی و ... از یک جایی به بعد نیاز به ML engineer داره اما لازمه شما با این مباحث آشنایی کامل داشته باشید مخصوصاً اگر قراره پروژه خودتون رو راه بندازید.
5- Building Machine Learning Pipelines : Automating Model Life Cycle with Tensorflow (Hannes Hapke)
این بخش خیلی خیلی مهمه، قرار نیست تا ابد هر چندوقت یکبار بشینید و بصورت دستی دیتا جدید رو ترین کنید و همه مراحل رو پیش بگیرید باید از data pipeline ها استفاده کنید (چیزی که خیلی خیلی کم دیده میشه)
6- TinyML : Machine Learning with Tensorflow Lite on Arduino and Ultra-Low-Power Microcontrollers (Pete Warden)
شاید هیچ وقت لازم نشه روی این سختافزارها سرویس دهنده باشید، اما چیزهایی که توی این کتاب قرار هست یاد بگیرید واقعاً واجب هست.
7- Practical Deep Learning for Cloud, Mobile, and Edge : .... (Anirudh Koul)
تا اینجا بصورتی بود که خسته کننده نباشه و کدینگ و ... هم پیش بره اما کم کم باید وارد مباحث تئوری و ریاضیات هم شد.
8- d2l.ai
بخش تئوری این کتاب شامل کلی tips and tricks میشه که جالب هستند.
9- deeplearningbook.org
همهی تئوریها و ریاضیاتی که پیچوندید رو باید بالاخره یاد بگیرید :)
امیدوارم این لیست مفید باشه، سعی کردم کتابهایی که خوب هستند یا خودم خوندم و نتیجه گرفتم رو فقط معرفی کنم وگرنه این لیست ادامه دار بود.
امیدوارم مفید باشه 🌹
#چطور_شروع_کنیم |
چند مورد از آموزش های مفید و گام به گام کانال
#یادگیری_ماشین #هوش_مصنوعی #یادگیری_عمیق #پردازش_زبان_طبیعی #شبکه_عصبی #منابع #دکترـرضوی #فیلم #مقاله
جستجوی مورد نظر خودرا باهشتگ های معرفی شده به مطلب موردنظر برسید
📣 مروری کلی بر مفاهیم علم داده و یادگیری عمیق و یادگیری ماشین
📣 آموزش گام به گام یادگیری ماشین
📣 آموزش گام به گام پردازش زبان طبیعی
📣 آموزش گام به گام یادگیری عمیق
📣 گام به گام آموزش یادگیری هوش مصنوعی
📣 فیلم آموزشی « شبکه های عصبی برای یادگیری ماشین » از پروفسور جفری هینتون
📣 آموزش گام به گام یادگیری هوش مصنوعی با کلاس های آموزشی دکتر رضوی
📣 فیلم آموزشی
«چطور از بین همه مدلهای یادگیری ماشین مدل مناسبی انتخاب کنیم؟»
📣 فیلم آموزش گام به گام یادگیری ماشین با کلاس های آموزشی دکتر رضوی
📣 فیلم های آموزشی یادگیری ماشین از کنفرانس ها و سخنرانیهای مطرح
📣 منابع و کتاب های معرفی شده برای هوش مصنوعی یادگیری ماشین و...
📣 آموزش گام به گام یادگیری عمیق با کلاس های آموزشی دکتر رضوی
و بسیاری از مطالب کاربردی دیگر که فقط با یک نگاه کافی نیست...
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
📌عنوان تخصص: کارشناس شبکه و IT
📌شرکت: هولدینگ مالی بانکی
📌محل کار: تهران
📗تواناييهای عمومی مورد نياز:
🔺توانايی کار گروهی
🔺دارای پشتکار، پیگیر و توانایی پیشبرد اهداف سازمانی
🔺آشنایی کلی با مفاهیم مالی و سرمایهگذاری
🔺3حداقل سال سابقه کار مفید مرتبط همراه با رزومه مناسب
🔺امکان پاسخگویی تلفنی در ساعات غیر اداری در صورت لزوم
📚تواناييهای تخصصي مورد نياز:
🔺تسلط به سخت افزار كامپیوتر, پرینتر و ویندوز کلاینت
🔺تسلط به سرور های Microsoft
🔺تسلط به نرم افزارهای بكاپ گیری
🔺تسلط به آنتی ویروس تحت شبکه
🔺تسلط با مجازی سازی VMware 🔺تسلط بر محصولات NGFW و UTMها و راه کارهای Endpoint Protection
🔺آشنایی با سوئیچ های سیسکو در حد CCNA
🔺آشنایی با راهبری فایروال
📣توضیحات مهم:
🟢قرارداد همکاری به صورت پاره وقت تنظیم خواهد شد. 🟢حضور در شرکت، یک روز در هفته الزامیست.
لطفاً رزومه شغلی خود را با عنوان «کارشناس شبکه و IT» به آدرس پست الکترونیکی زیر ارسال نمایید:
[email protected] |
16 منبع آموزشی الگوریتمهای هوش مصنوعی〰️〰️〰️
♾ 1. Speech and Language Processing by Dan Jurafsky and James Martin
🔊 2. Deep Learning for Natural Language Processing by Richard Socher (Stanford University)
🔔 3. Natural Language Processing (NLP) by Microsoft
🔸 4. Andrew Ng’s course on Machine Learning
🔸 5. The video lectures and resources for Stanford’s Natural Language Processing with Deep Learning
🔰 Part 2
🔹6. Sequence Models for Time Series and Natural Language Processing
🔺 7. Deep Natural Language Processing course offered in Hilary Term 2017 at the University of Oxford.
🔺 8. Natural Language Processing Fundamentals in Python by Datacamp
🔺 9 Natural Language Processing by Higher School of Economics
🔸 10 How to Build a Chatbot Without Coding by IBM
🔸 11. CS 388: Natural Language Processing by University of Texas
🔸 12. Natural Language Processing with Python
⚡️ 13. CSEP 517: Natural Language Processing by University of Washington
🔰 14. Dan Jurafsky & Chris Manning: Natural Language Processing
📘 15. NATURAL LANGUAGE PROCESSING by Carnegie Mellon University
📘 16. CS224n: Natural Language Processing with Deep Learning by Stanford University
#منابع #یادگیری_ماشین #فیلم #کلاس_آموزشی #الگوریتمها #پردازش_زبان_طبیعی #هوش_مصنوعی #یادگیری_عمیق
join👇👇👇
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN |
📌عنوان تخصص: کارشناس وردپرس
📌شرکت: هولدینگ مالی بانکی
📌محل کار: تهران
📘تواناييهای عمومی مورد نياز:
🔺توانايی کار گروهی
🔺دارای پشتکار، پیگیر و توانایی پیشبرد اهداف سازمانی
🔺آشنایی کلی با مفاهیم مالی و سرمایه گذاری
🔺حداقل ۳ سال سابقه کار مفید مرتبط همراه با رزومه مناسب
🔺امکان پاسخگویی تلفنی در ساعات غیر اداری در صورت لزوم
📚تواناييهای تخصصي مورد نياز:
🔺تسلط کامل به وردپرس و تمامی پلاگین های مهم از جمله Visual Composer ، Slider Revolution و...
🔺توانمند به ایجاد تغییرات اساسی در کد و اختصاصی کردن قالب های وردپرس
🔺تسلط کامل به افزونه های امنیتی وردپرس و روش ها و اصول بهبود امنیت در وردپرس
🔺توانایی کامل در اضافه نمودن بخش جدید ،تغییر و عیبیابی کدهای قالب و افزونهها، و پیاده سازی افزونه های جدید در صورت نیاز
🔺تسلط بر محیط command line سیستم عامل لینوکس
🔺تسلط بر CSS ، HTML، JS ، PHP و MYSQL
🔺تسلط کامل به SEO فنی یا ON-PAGE
🔺توانایی حل مساله، پذیرش چالش ها و ارائه راه حل
📣توضیحات مهم:
🔴قرارداد همکاری به صورت پاره وقت تنظیم خواهد شد.
🔴آشنایی با مفاهیم SEO در حوزه محتوا و تکنیک ها امتیاز محسوب می شود.
🟢لطفاً رزومه شغلی خود را با عنوان «کارشناس وردپرس» به آدرس پست الکترونیکی زیر ارسال نمایید:
[email protected] |
Registration for International Data Analysis Olympiad(IDAO 2021) is open till March 12. It’s being organized by HSE University and Yandex for the 4th time. Otkritie bank will be our platinum partner this year. The Olympiad will be convened by leading experts in data analysis and aims to bring together analysts, scientists, professionals, and junior researchers. Participation is free. Winners and prize-winners of IDAO 2021 will receive valuable prizes.
This year the online task is coming again from Physics. The task was given by the Laboratory of Methods for Big Data Analysis (LAMBDA, HSE University) together with CYGNO Collaboration (Italy).
The registration is open till March 12, 2021. The Olympiad includes two stages:
Online Stage (March 1-31):
· Track 1: Traditional machine learning competition on Yandex.Contest platform. You will need to make new predictions and upload them to the automatic verification system.
· Track 2: Come up with a solution for the same problem, keeping within a rigid framework of time and memory used.
Final (April 17-18):
· top 30 teams according to the Online Stage results will be invited to the Online final.
· In the final 36 hours of the competition, participants will try not just to train the model, but to create a full-fledged prototype, which will be tested both in terms of accuracy and performance.
Learn more: https://idao.world/
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN
❇️ @AI_Python |
📌عنوان تخصص: کارشناس تولید محتوا
📌شرکت: شرکت گروه مالی شهر
📌محل کار: تهران
🟢تواناييهای عمومی مورد نياز:
🔺توانايی کار گروهی
🔺دارای پشتکار، پیگیر و توانایی پیشبرد اهداف سازمانی
🔺آشنایی کلی با مفاهیم مالی، بازار سرمایه و سرمایه گذاری
🔺5 سال سابقه کار مفید مرتبط همراه با رزومه مناسب
🔺امکان پاسخگویی تلفنی در ساعات غیراداری در صورت لزوم
🔺سرعت عمل مناسب همراه با دقت بالا
🟢تواناييهای تخصصي مورد نياز:
🔺آشنایی کامل با تدوین استراتژی تولید محتوا و بازاریابی
🔺آشنایی کامل با اصول گرافیک و مبانی رنگشناسی، تصویرسازی و صفحهآرایی
🔺دارای ذوق هنری و خلاقیت در طراحی
🔺تسلط به نرم افزارهای Photoshop، Corel ، Premiere ، Illustrator و After Effect
🔺توانایی کامل طراحی پوستر، کاتالوگ و بروشور
🔺توانایی ساخت موشن گرافی و کلیپ های تبلیغاتی به همراه شخصیت پردازی و سناریونویسی
🔺آشنایی با اصول دیجیتال مارکتینگ و ایده پردازی محتوا
🔺آشنایی با وردپرس و اصول سئو محتوا
🔺تسلط کامل به تولید محتوا در شبکههای اجتماعی و وب سایت
📣توضیحات مهم:
📍قرارداد همکاری به صورت دورکاری و پروژه محور تنظیم خواهد شد.
📍به جای اجراکار بودن، بر طراح بودن فرد تأکید وجود دارد.
📍ارائه نمونه کار مزیت محسوب می شود.
📧لطفاً رزومه شغلی خود را با عنوان « کارشناس تولید محتوا» به آدرس پست الکترونیکی زیر ارسال نمایید:
[email protected]
➖➖➖➖➖➖➖➖➖➖➖
#SEO #content_creator
#photoshop |
♨️💯شروع دوره تحلیل داده با پانداس در یوتیوب فارسی
کتابخانه pandas یکی از کتابخانه های مطرح در حوزه علم داده هست که میتونه به شما در چهار مرحله یک پروژه مربوط به علم داده کمک کنه:
1⃣Reading data
طبعا اولین قدم، خوندن داده ها و وارد کردن اونها به محیط پایتون هست. پانداس میتونه از قالب های مختلف مثل اکسل، csv و ... داده ها رو با یک خط دستور بخونه ‼️
2⃣Data manipulation
بعد از خواندن داده ها، نوبت به یک سری پیش پردازشها و دستکاری در داده هاست مثل تمیزسازی داده ها، حذف داده های پرت، حذف نمونه های با مقدار مفقود و ..، پانداس تو این قسمت هم خیلی راحت بهت کمک میکنه تا داده ها رو دستکاری کنی.
3⃣Data analysis
تحلیل دادهها و استخراج اطلاعات مهم از داده مرحله مهمی هست و باید بتونید اطلاعات مهم رو استخراج کنید. پانداس کلی متد و نحوه فیلتراسیون داده ها رو داره که این فرایند رو ساده میکنه
4⃣Data visualization
در نهایت هم معمولا خیلی وقت ها گزارشها به صورت نمودار یا شکل همراه هست که پانداس توی این قسمت هم به شما کمک میکنه فرایند ویژوالیزیشن داده ها رو راحت و بی دردسر انجام بدید.
دوره آموزش تحلیل داده با پانداس به تازگی در کانال زیر استارت زده شده و میتونید هماهنگ با دوره پیش برید و در جلسات لایو پرسش و پاسخ پاسخ سوالاتتون رو هم بگیرید.
#pandas
#tutorial
#آموزش
https://youtube.com/playlist?list=PLuQlH6t3PaQEhdRj0QJlUYCKVRPG40DK9 |
✔️ استخدام برنامه نویس
#استخدام #موقعیت_شغلی #کارجو #همکاری
استخدام برنامه نویس Senior React Native Developer به صورت تمام وقت در شرکت دانش بنیان گرید ۱
شرایط تخصصی
تسلط بالا به JavaScript و HTML و CSS
تسلط به فریمورک React Native, React JS
توانایی پیاده سازی و استفاده از Native Components
تسلط به پیاده سازی SPA
تسلط به پیاده سازی PWA
فهم و تسلط کامل از طراحی مسائل Multi-Platform مثل Responsive Design
تسلط بر مفاهیم REST API
آشنایی کافی با ابزارهای npm, Git
آشنایی با Redux و Hook
آشنایی با مکانیزم احراز هویت JWT
آشنایی با / تسلط به کار در محیط Android Studio
ترجیحا تجربه کاری بیش از دو سال
ترجیحا مسلط به زبان انگلیسی
شرایط و مزایای شغلی
حقوق ۸ الی ۱۰ میلیون تومان
بیمه شرکت دانش بنیان گرید 1
امکان جذب به صورت سرباز نخبه پس از 6 ماه
امکان صدور گواهی مشارکت فنی در محصولات بین المللی
محیط کاری دوستانه و پویا
دورکاری در ایام کرونا
شرایط اخلاقی
دلسوز و علاقهمند به کار و یادگیری
متعهد و مسئولیت پذیر
داشتن روحیه کار تیمی و گروهی
ارسال رزومه به آیدی تلگرام @anya_co
لینک آگهی در جابینجا:
https://jobinja.ir/companies/arman-software-yaran/jobs/RzZp |
An article by Steve Lohr in today's Sunday New York Times about IBM Watson's lack of success affords us a chance to discuss how True AI (i.e. Mentifex AI) can pass a "second grade reading comprehension test" -- which is currently beyond the power of IBM Watson's "AI".
Suppose that a mentifex-class Strong AI Mind reads in a second-grade-level story, "A boy and a girl are in the kitchen. The girl puts a plate on the table. The boy pushes the plate off the table."
To test reading comprehension, we can expect questions and answers such as the following.
Q. Where is the boy/girl/plate/table?
A. The boy/girl/plate/table is in the kitchen.
Q. Where is the plate?
A. The plate is off the table.
Q. Where is the kitchen?
A. I do not know.
The Mentifex AI Mind understands the situation of the story only in terms of the language being used, namely subject-verb-object (SVO) sentences and prepositional phrases. At first the AI knows that the plate is on the table, because the girl puts it there. Then the AI knows not exactly where the plate is, but only that it is "off the table" because of the act of "push" by the boy.
If there is no prior experience of the words involved, the AI does not understand each individual word, such as what a boy is or what a plate is. The AI makes a concept out of each word but with only a shallow conceptual knowledge. From the story alone, the AI understands each concept only in terms of the other concepts. Over time, the AI will develop deeper knowledge about each concept and about the world in general.
It seems a shame for IBM to spend so much time, money and talent on developing Watson only to see it fall into desuetude. Any entity wanting to go beyond Watson could look into the Mentifex AI mind-design and finally do Watson in the correct True AI way.
Mentifex (Arthur T. Murray)
http://ai.neocities.org/NLU.html -- Natural Language Understanding;
https://www.mail-archive.com/ |
Skills you need in the industry as a Data Scientist (in no particular order):
1. Web Scraping
2. Querying databases - Different flavours of SQL
3. Understanding basics of data storage, warehouses and data pipelines
4. Exploratory Data Analysis
5. Data Visualization
6. Hypothesis testing - A/B testing specifically
7. Writing effectively and clearly about your projects, results, tech used etc.
8. Communicating results to stakeholders
9. Understanding the business problem
10. Understanding the business impact of your solutions
11. Creating an API
12. Deploying Docker containers/virtual environments
13. Creating a basic GUI - specially for internal products and projects without a pre-existing frontend
14. Documentation of every important step and detail in your projects
15. Data Modeling
16. Feature Engineering
17. Building ML models
18. Monitoring ML models in production
19. Abstracting code whenever required
20. Making your projects more maintainable - specially when they're in/going to production
21. Helping juniors/colleagues unblock on technical issues
22. Creating relevant metrics
23. Ensuring data validation
24. Using a version control system - usually Git these days
25. Reading and understanding new research
26. Knowing basics of Data Structures, Algorithms, Memory Management, Multiprocessing etc.
27. Translating Business problems into Data problems
28. Stakeholder expectation management within your team and external teams
29. Understanding REST, SOAP and the technology behind them
30. Building, running and interpreting surveys
Important note:
- Not all of the above skills are needed all of the time!
But different Data Scientist roles will have different weightage assigned to combinations of the above skills. And you don't need to be an absolute expert at each of these.
Recognise your strengths.
Get good at all of the above to some level and then keep improving that level in the areas that matter more in your current role.
#منابع #علم_داده
❇️ @AI_Python |
You asked me to resend some free Python courses shared here in the past.
So here you go:
1. Introduction to Computer Science and Programming in Python: From MIT, for free! 🙌🏼
No registration or download required
https://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-0001-introduction-to-computer-science-and-programming-in-python-fall-2016/
Video lessons 🎥
Slides and code 👨💻
2. CS50’s Web Programming with Python and JavaScript by Harvard University:
HTML, CSS
Git
Python
Django
SQL, Models, and Migrations
JavaScript
User Interfaces
Testing, CI/CD
Scalability and Security
Start learning immediately, no registration or download required.
3. Python course by Google
https://developers.google.com/edu/python
No registration or download needed.
4. Python for Beginners
Programming with Python
By Microsoft
Authors: Susan Ibach, GeekTrainer
🎬 44 episodes
⏰ 180 mins
🔗 Link to course
5. NOC:Programming, Data Structures and Algorithms using Python
⌛️ 6 weeks
👨🏫 45 lectures
🔗 Link to course
6. Scientific Computing with Python
Author: Dr. Charles Severance (also known as Dr. Chuck).
🎬 56 lessons
💻 5 scientific projects
📜 Free certification
🔗 Link to course
Additional materials:
Python Tutorial -> Condensed Cheatsheet
https://learnxinyminutes.com/docs/python3/
Free Python Books
A list of Python books in English that are free to read online or download.
⭐️ 2.6k
https://github.com/pamoroso/free-python-books
Learn Python the Hard Way
Author: Zed Shaw
Language: English
Level: Beginner
Online version (by the original author - no worries, this isn't a pirate link!) of the "Learn Python the Hard Way." book. It emphasizes repetition and concept understanding.
🔗 https://learnpythonthehardway.org/pyth |
#پروژه_بررسی_14_ربات_انسان_نمای_معروف
ربات انسان نمای اول | #ربات_ASIMO
قسمت سوم: قابلیت های حرکتی
زیر قسمت اول: تکنولوژی انحصاری راه رفتن دوپا در شرکت هوندا
بخش دوم: معرفی zero moment point یا ZMP | تولید الگوی حرکتی در تکنولوژی walk stabilization control
تکنولوژی walk stabilization control بر اساس یک مفهوم در دینامیک که نقطه با ممان صفر (zero moment point) یا ZMP نام دارد، اقدام به ایجاد الگوی راه رفتن (به عنوان الگوی حرکتی هدف) می کند. ربات انسان نما باید الگوی تولید شده را دنبال کند.
نیروی گرانش (در راستای عمود بر زمین) و نیروی اینرسی وارده بر انسان نما (در راستای موازی با زمین) در راه رفتن دینامیکی بصورت برآیند منجر به ایجاد نیروی اینرسی کلی می شوند. نقطه ای که در آن امتداد نیروی اینرسی کلی به زمین برخورد می کند، ZMP نامیده می شود. برای درک این موضوع و نحوه تعیین ZMP می توانید تصویر چهارم را ببینید. اگر که ZMP در محل تماس پای تعادلی درفاز تعادل با یک پا و یا در محل چندضلعی ایجاد شده بین محل تماس هر دو پا در فاز تعادل دوپا واقع شود، آنگاه انسان نما می تواند در راه رفتن از نظر دینامیکی در تعادل باشد. برای درک این موضوع می توانید تصویر پنجم را ببینید که در آن شرایط تعادل دینامیکی بر اساس مفهوم ZMP ارائه شده است. بنابراین ZMP هدف بگونه ای تعریف می شود که شرایط مورد بحث ارضاء گردد. الگوی راه رفتن هدف بگونه ای تولید می شود که ترجکتوری مطلوب (با شرط قرار گرفتن ZMP در مکان مناسب برای تحقق تعادل دینامیکی) محقق شود. در واقع الگوی راه رفتن هدف توسط ترجکتوری در روبروی پا توصیف می شود. این ترجکتوری برای تعیین زوایای مفصلی ربات، موقعیت بالا تنه و ترجکتوری وضعیت انسان نما لازم است.
الگوی راه رفتن هدف بر اساس تنظیم شتاب افقی بالا تنه (بگونه ای که ممان حول ZMP هدف صفر گردد) تولید می شود.
—————
@roboticknowledge |
Many Data Science aspirants struggle to find good projects to get a start in Data science or #MachineLearning.
Here is the list of few #DataScience projects (found on kaggle), it covers Basics of Python, Advanced Statistics, #SupervisedLearning (Regression and Classification problems)
1. Basic #python and #statistics
Pima Indians : https://www.kaggle.com/uciml/pima-indians-diabetes-database
Cardio Goodness fit : https://www.kaggle.com/saurav9786/cardiogoodfitness
Automobile : https://www.kaggle.com/toramky/automobile-dataset
2. Advanced Statistics
Game of Thrones:
https://www.kaggle.com/mylesoneill/game-of-thrones
World University Ranking:
https://www.kaggle.com/mylesoneill/world-university-rankings
IMDB Movie Dataset: https://www.kaggle.com/carolzhangdc/imdb-5000-movie-dataset
3. Supervised Learning
a) Regression Problems
How much did it rain : https://www.kaggle.com/c/how-much-did-it-rain-ii/overview
Inventory Demand: https://www.kaggle.com/c/grupo-bimbo-inventory-demand
Property Inspection predictiion:
https://www.kaggle.com/c/liberty-mutual-group-property-inspection-prediction
Restaurant Revenue prediction:
https://www.kaggle.com/c/restaurant-revenue-prediction/data
IMDB Box office Prediction:
https://www.kaggle.com/c/tmdb-box-office-prediction/overview
b) Classification problems
Employee Access challenge :
https://www.kaggle.com/c/amazon-employee-access-challenge/overview
Titanic :
https://www.kaggle.com/c/titanic
San Francisco crime:
https://www.kaggle.com/c/sf-crime
Customer satisfcation:
https://www.kaggle.com/c/santander-customer-satisfaction
Trip type classification:
https://www.kaggle.com/c/walmart-recruiting-trip-type-classification
Categorize cusine:
https://www.kaggle.com/c/whats-cooking
#پروژه #منابع #الگوریتمها #یادگیری_ماشین #هوش_مصنوعی #علم_داده #پایتون
❇️ @AI_Python |
📌عنوان تخصص: کارشناس شبکه و IT
📌شرکت: هولدینگ مالی بانکی
📌محل کار: تهران
📗تواناييهای عمومی مورد نياز:
🔺توانايی کار گروهی
🔺دارای پشتکار، پیگیر و توانایی پیشبرد اهداف سازمانی
🔺آشنایی کلی با مفاهیم مالی و سرمایهگذاری
🔺3حداقل سال سابقه کار مفید مرتبط همراه با رزومه مناسب
🔺امکان پاسخگویی تلفنی در ساعات غیر اداری در صورت لزوم
📚تواناييهای تخصصي مورد نياز:
🔺تسلط به سخت افزار كامپیوتر, پرینتر و ویندوز کلاینت
🔺تسلط به سرور های Microsoft
🔺تسلط به نرم افزارهای بكاپ گیری
🔺تسلط به آنتی ویروس تحت شبکه
🔺تسلط با مجازی سازی VMware 🔺تسلط بر محصولات NGFW و UTMها و راه کارهای Endpoint Protection
🔺آشنایی با سوئیچ های سیسکو در حد CCNA
🔺آشنایی با راهبری فایروال
📣توضیحات مهم:
🟢قرارداد همکاری به صورت پاره وقت تنظیم خواهد شد. 🟢حضور در شرکت، یک روز در هفته الزامیست.
لطفاً رزومه شغلی خود را با عنوان «کارشناس شبکه و IT» به آدرس پست الکترونیکی زیر ارسال نمایید:
[email protected] |
جزوات زیر از روی دوره یادگیری ماشین دکتر مهدیه سلیمانی از دانشگاه شریف نوشته شده. کل دوره 23 جلسه است و ویدیو هر جلسه در مکتبخونه موجود میباشد.
✅ لیست جلسات:
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه اول - مقدمه و معرفی یادگیری ماشین
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه دوم - تخمین ML و MAP
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه سوم - رگرسیون خطی و گرادیان کاهشی
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه چهارم - رگرسیون غیرخطی
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه پنجم - خطای روی کل توزیع و مفاهیم بایاس و واریانس
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه ششم - رگرسیون با دیدگاه احتمالاتی، کلسیفیکیشن
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هفتم - ادامه کلسیفیکیشن و دستهبندی چند کلاسه
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هشتم - دستهبند احتمالاتی
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه نهم - ادامه دستهبند احتمالاتی، رگرسیون لاجیستیک
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه دهم - دستهبند SVM
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه یازدهم - ادامه دستهبند SVM و کرنل
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه دوازدهم - ادامه کرنل و دستهبند درخت تصمیم
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه سیزدهم - ادامه دستهبند درخت تصمیم
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه چهاردهم - تئوری یادگیری
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه پانزدهم - ادامه تئوری یادگیری
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه شانزدهم - یادگیری مبتنی بر نمونه (Instance-Based)
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هفدهم - ادامه بحث يادگيری مبتنی بر نمونه و شروع يادگيری جمعی (Bagging و Boosting)
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هجدهم - ادامه يادگيری جمعی (Bagging و Boosting)
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه نوزدهم - انتخاب ويژگی و روش PCA
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیستم - ادامه روش PCA و شروع Clustering
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیستویکم - ادامه Clustering
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیستودوم - بررسی Clustering با دیدگاه احتمالاتی
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیستوسوم - Reinforcement Learning |
How do I get professors to answer my emails?
You have sent SO MANY emails to professors for scheduling your prelim, looking for research opportunities, or asking questions about courses etc. But they just don't reply at all! Angry face
How do I get things done? A few tips below .
Group scheduling*
Don't send out Doodle/When2meet with 30+ entries! Look up their (course) schedules and propose only a few (3-5) time slots.
If they need to spend 15 mins filling out your scheduling request, they will simply ignore your email.
*Give them the control for planning their day*
Scheduling a meeting:
Don't: When will you be available?
Do: I am available ... Will you be available in one of the time slots?
When you ask for availability, you are effectively asking for commitment for ALL of the time slots.
*Calendar invite*
Once you scheduled a meeting. Please do send a calendar invite with all the required information (e.g., zoom link).
Whatever that's not on their calendar does not exist.
*Go 90% and let them finish the 10%*
• Need a form? Pre-fill it as much as you can (you know their name and email).
• Need a cover letter? Write a draft first.
• Need a ref. letter? Send an updated CV and SOP.
• Need to ask about a course? Read the syllabus first.
*cc all parties involved*
Asking for some code/data/clarification? cc'ing your PI and their PI definitely helps you get a prompt reply!
*Don't cc all parties involved*
Don't send requests to MULTIPLE people in the same thread. Everyone will assume others will do it and therefore no one will do it. Send INDIVIDUAL emails instead.
*One email one topic*
Help your professors respond your email quickly. Make your emails simple, clear, and actionable.
*Formatting*
You are not writing in plain texts.
Formatting your email so that it's easy to read, e.g.,
• bullet points for parallel concepts
• bold font for highlighting
• bold phrase for organizing your email
• italic for sentence stress.
*Timeline*
Provide specific action and specific date that the task needed to be completed. This helps them plan their schedule to make time for your requests.
#منابع #اپلای
❇️ @AI_Python |
پادکست هوش مصنوعی
امروزه رد پای هوش مصنوعی تقریبا در همه جا مشاهده میشود. هوش مصنوعی، تاثیرات قابل توجهی را بر کسب و کارها و صنایع گوناگون گذاشته است. از این رو، در فصل اول پادکست هوش مصنوعی، کاربردهای هوش مصنوعی در کسب و کارها مورد بررسی قرار گرفته است.
در این پادکست که تاکنون ۱۲ قسمت از آن منتشر شده، کاربرد و اثر هوش مصنوعی در کسب و کارهای مطرح دنیا مانند آمازون، بایدو، اپل، علیبابا، مکدونالدز، گوگل و آلفابت، سیلزفورس، امریکن اکسپرس، بیاِموی (BMW) و نتفلیکس بررسی شده است.
این پادکست در اغلب پلتفرمهای پادکست محبوب در دسترس است و با جستجوی عبارت هوش مصنوعی در این پلتفرمها، میتوانید آن را پیدا کنید. جهت تسهیل دسترسی، لینک مستقیم پادکست در برخی پلتفرمها در ادامه آمده است.
🔗 تلگرام — کلیک کنید [+]
🔗 کستباکس — کلیک کنید [+]
🔗 اپل پادکست — کلیک کنید [+]
🔗 اسپاتیفای — کلیک کنید [+]
🔗 گوگل پادکست — کلیک کنید [+]
🔗 شنوتو — کلیک کنید [+]
🔗 ناملیک — کلیک کنید [+]
ـــــــــــــــــــ
سید مصطفی کلامی هریس
وبسایت: kalami.ir
کانال رسمی: @KalamiHeris
کانال پرسش و پاسخ: @Kalami_QA
|
سلام خدمت عزیزان
امروز میخوام از مددجوهای نسیم مهربانی براتون بگم؛
ابولفضل ،فاطمه و حسین که پدرشون بیماره باید پیوند کبد بشه و توانایی کار کردن نداره تو یه خونه ،خونه که نه انباری هم نمیشه بهش گفت زندگی میکنن..هروقت رفتیم خونشون مامانش میگفت برا صبحونه چیزی ندارم بچه هام بخورن برن مدرسه...
علی و رضا که پدرشونو از دست دادن و سرکوره تو یه آلونکی که شبیه همه چی هست جز خونه زندگی میکنند آخرین بار براشون پنکه برده بودیم و متاسفانه این خانواده هم یخچالشون تقریبا خالی بود...
و علیرضا که خونه ناپدریش زندگی میکنه مادرش میگه خرج لباس و مدرسه علیرضارو نمیده....
یا اون پیرزنی که دیروز لنگان لنگان امد دفتر خیریه باهامون دردودل کرد میگفت تویه اتاق پیش پسرم زندگی میکنم اماخرجو خوراکم جداست و میگفت شبها میترسم برم دستشویی داخل حیاط....
یا شهرام و بهنام که پدرشونو از دست دادند هروقت رفتیم خونشون مادرشون بود سرزمین مردم کارگری...
یا پریسان که بابا مامانشو تو آتیش سوزی ازدست داده و الان پیش پدربزرگش زندگی میکنه
و یا احمدرضا فاطمه و علی که باباشون از کار افتادس و حتی یبار میخواست بخاطر فشار مشکلات زندگی خودشو بکشه ...
یا مادری که شوهرش زندانه و با چنگ و دندون داره شکم خودشو سه تا بچه هاشو سیر میکنه
اینا بخش کو چکی از زندگی مددجوهامونه مشابه این خانواده ها زیاد داریم
تصمیم گرفتیم تو این روزهایی که برخلاف روزهای نزدیک عید نوروز و ماه رمضان کمتر سبد کالا توزیع میشه برای خانواده های نیازمندمون سبد کالا تهیه کنیم ....بیاید تو این کار خیر مشارکت کنیم حتی با کمترین مقدار 🙏
💳6037997950135955 |
چگونه چنین خطاهایی را در توزیع های لینوکس جهت نصب برنامه R برطرف کنیم؟
اگر چنین خطایی در نرم افزار R رخ داد به شیوه گفته شده تغییرات را اعمال کنید.
installation of package ‘tidyverse’ had non-zero exit status
sudo apt-get install cmake cmake-gui gfortran
sudo apt-get install liblapack-dev libblas-dev libatlas-base-dev libarpack2-dev libarpack++2-dev
sudo apt-get install libblas-dev libatlas-base-dev
sudo apt-get install libpoppler-cpp-dev
sudo apt-get install -y libtesseract-dev libleptonica-dev tesseract-ocr-eng
sudo apt-get install libpng-dev
sudo apt-get install libjpeg8-dev
sudo apt-get install libtiff5-dev
sudo apt-get install zlib1g-dev
sudo apt install build-essential libncursesw5-dev libgdbm-dev libc6-de
sudo apt install libreadline-gplv2-dev libncursesw5-dev libssl-dev libsqlitesudo dpkg -i libjpeg62-turbo_1.5.1-2_i386.deb3-dev tk-dev libgdbm-dev libc6-dev libbz2-dev
sudo apt install libxml2-dev
sudo apt install libcurl4-openssl-dev
sudo apt install -y libxml2-dev libcurl4-openssl-dev libssl-dev
sudo apt install libjepg62
sudo dpkg -i libgstreamer-plugins-base0.10-0_0.10.36-2_i386.deb
sudo dpkg -i libgsl0ldbl
sudo apt install gsl-bin libgsl0-dev
sudo dpkg -i libgstreamer0.10-0_0.10.36-1.5_i386.deb
sudo dpkg -i libjpeg62-turbo_1.5.1-2_i386.deb
sudo add-apt-repository ppa:ubuntugis/ubuntugis-unstable
sudo apt update
sudo apt-get install libudunits2-dev libgdal-dev libgeos-dev libproj-dev
sudo apt install libudunits2-dev
بعضی از این دستورات برای اجرا شدن و نصب نیاز هست که به وبسایت پکیج توزیع مورد نظر برید و این موارد رو دانلود کنید. چنین خطایی برای من وجود داشت و حل شد برای توزیع های دبیان بیس و اوبونتو حل شد .
احتمالا میتوان به وجود پکیج ها و ابزارهای مناسب مانند انچه در فوق ذکر شده در مخازن توزیع های مختلف امید داشت که نیاز به بررسی دقیق تر در هر توزیع دارد
❇️ @AI_Python
❇️ @Data_Experts |
پیشنهاداتی برای شروع یادگیری پردازش زبان طبیعی
Natural Language Processing (NLP)
📘 Speech and Language Processing
📘 Linguistic Fundamentals for Natural Language Processing: 100 Essentials from Morphology and Syntax
📘 Linguistic Structure Prediction by Noah A. Smith
📘 Introduction to Natural Language Processing by Jacob Eisenstein
📘 Neural Network Methods in Natural Language Processing (Synthesis Lectures on Human Language Technologies) by Yoav Goldberg
🔰 Modern Deep Learning Techniques Applied to Natural Language Processing by Soujanya Poria and Elvis Saravia
📺 CS224N: Natural Language Processing with Deep Learning | Winter 2019 And 2021
📘 Natural Language Processing with PyTorch: Build Intelligent Language Applications Using Deep Learning
📘 Natural Language Processing in Action by Hobson Lane, Cole Howard, and Hannes Hapke
📘 Practical Natural Language Processing
🔰 مقالات این حوزه پژوهشی :
📃 Papers with Code
📃 arXiv (cs.CL)
📃 Made with ML
📃 NLP Progress
📃 NLP News by Sebastian Ruder
📃 NLP Newsletter by Elvis Saravia
#کتاب #فیلم #منابع #پردازش_زبان_طبیعی #کلاس_آموزشی
#NLP #Book
❇️ @AI_Python |
We are excited to announce that applications are open for the 3rd NYU AI School, a free winter school for early undergraduates:
The NYU AI School is a week-long in-person* winter school that prioritizes those from underserved communities who lack institutional resources in artificial intelligence (AI) and machine learning (ML). Participants will learn the basics of AI and ML from experts at Google, Princeton, NYU, Columbia, get hands-on experience applying it to images and text, and explore career paths in the field. We encourage students with and without a programming background to apply for the event!
*with measures for switching to an online event, subject to COVID guidelines in December
Applications are evaluated on a rolling basis with the deadline on Dec. 10, 2021.
Feel free to shoot any questions or comments to [email protected]. Thank you!
Application Link: https://bit.ly/website-nyu-ai-school-2022
Poster: https://drive.google.com/file/d/1Rf2_uX678XBky0nazd-w1KHim02-Xaov/view?usp=sharing
❇️ @AI_Python |
✔️ معرفی #منابع پیشنهادی برای #یادگیری_عمیق
قدم اول برای یادگیری عمیق
#یادگیری_ماشین #پردازش_زبان_طبیعی #هوش_مصنوعی #آموزش #شبکه_عصبی_کانوولوشن #شبکه_عصبی #منابع
✅1 - فراگیری مفاهیم مقدماتی یادگیری ماشین
مباحث آموزشی دکتر هینتون و بنجیو و لکون
👈 لینک
✅ فیلم های اموزشی یادگیری ماشین و یادگیری عمیق دکتر رضوی
👈 لینک
✅ تسلط بر مباحث برنامه نویسی پایتون و کار با تنسرفلو وکراس
✅ تسلط بر مباحث ریاضیات و جبر از دانشگاه MIT
👈 لینک
✔️ معادلات ماتریسی یادگیری عمیق دانشگاه کالیفرنیا جنوبی
👈 لینک
✔️ استفاده از سایت بسیار مشهور که به وسیله پژوهشگران برتر هدایت میشود
fast.ai
👈 لینک
📚 2 - مطالعه منابع عمیق دانشگاه ها و...
یادگیری عمیق دانشگاه آکسفورد
👈 لینک 👈 لینک ۲ 👈 لینک ۳ 🖋فیلمهای این دانشگاه
❌ آموزش های شبکه ای کانولوشن و یادگیری ماشین و...
⁉️ لینک
❌ وبسایتی که آموزشها و مقالات را از سال ۲۰۱۲ تا ۲۰۱۶ قابل دسترس است
⁉️ لینک
❌ شبکه عصبی کانولوشن برای تشخیص بصری
⁉️ لینک
❌ پردازش زبان طبیعی برای یادگیری ماشین
⁉️لینک
❌ مدرسه تابستانی یادگیری عمیق مونترال
⁉️ لینک ۱ ⁉️ لینک ۲
❌ شبکه کانولوشن عصبی و شبکه عصبی
⁉️ لینک
🔍 یادگیری شبکه های عصبی جفری هینتون کورسرا
📘 کلاس شبکه های عصبی دانشگاه اوشربروک کانادا
👈لینک
📕منابع یادگیری ماشین دانشگاه کالتک برای یادگیری نظری ها
👈 لینک
📘 3- معرفی کتابها
Neural Networks and Deep Learning Book by Michael Nielsen
Deep Learning Book by Ian Goodfellow, Yoshua Bengio and Aaron Courville
📘 4- سایر منابع
CS231n Convolutional Neural Networks for Visual Recognition University of Stanford
Getting Started in Computer Vision by Mostafa S. Ibrahim he focus on GPU and ...
🗓 پردازش زبان طبیعی دانشگاه استنفورد
👈 لینک 👈لینک ۲
🗓 مطالعه مقاله درمورد حافظه شبکه👈 لینک
📘 مطالعه مقاله پایه ای حافظه شبکه و NLP
👈 لینک
ویدیوهای شرکت DeepMind
👈 لینک
❇️ یادگیری عمیق تقویتی
👈 لینک کتابهای
❇️ فهم یادگیری LSTM
👈 لینک
❇️ اثر بخشی ناعادلانه RNN
👈 لینک
✔️ مدل های تولیدی
✅ مقاله جهت یادگیری مدلهای GANs
👈لینک
✅ یادگیری مدل VANs
👈 لینک
✅ مقاله نوشته شده دکتر Ian Goodfellow در مورد GAN
👈 لینک
✅ مقاله نوشته شده LAPGAN
👈 لینک
✅ مقاله نوشته شده در مورد DCGAN
👈لینک مقاله 👈 لینک کدها
✅ استفاده از روش DCGAN برای تصاویر کیفیت بالا
👈 لینک
✅ فیلم های یادگیری عمیق برای پردازش تصویر
👈 لینک
🌐 ساخت پروژه
👈 لینک دیتا
🌐 شناسایی و طبقه بندی تصاویر
👈 لینک ۱ 👈 لینک ۲
🌐 تحلیل احساسات با استفاده از RNN
👈لینک
و با استفاده از CNN
👈 لینک
🌐 کاربرد الگوریتم عصبی سبک هنری
👈لینک
🌐 ساخت موسیقی با استفاده از RNNs
👈 لینک
🌐 ساخت بازی پینگ پونگ با استفاده از یادگیری عمیق تقویتی
👈 لینک
✳️ استفاده از شبکه عصبی Rate a selfie
👈 لینک
✳️ استفاده از رنگ عکسهای سیاه و سفید با استفاده از یادگیری عمیق
👈 لینک
✳️ سایر منابع یادگیری عمیق از پژوهشگران برتر کارپاتی
👈 لینک مقالات
✳️ لینک یادگیری عمیق دانشگاه استنفورد
👈 لینک ۱ 👈 لینک ۲
✳️ یادگیری عمیق
👈 لینک
🔔@AI_Python |
Subsets and Splits