مدرسه تحلیل داده دقیقه
This media is not supported in your browser
VIEW IN TELEGRAM
📽️ استخراج داده از وب
#ویدئوی_معرفی_دوره
🎓 مجید پورکاشانی | همبنیانگذار، توسعهدهنده نرمافزار و مهندس داده در شرکت پردازش و تحلیل داده دقیقه، کارشناسی مهندس برق از دانشگاه شریف و کارشناسی ارشد هوش مصنوعی از دانشگاه علموصنعت
Web Scraping with Python and Other Tools
📆 چهارشنبهها ۱۸:۳۰ تا ۲۱:۳۰
🗓 از ۱۷ اردیبهشت ۱۴۰۴
⏺️ ۱۵ ساعت (۵ هفته)
🎞 با دسترسی به ویدئوی جلسات
🏅 گواهی پایان دوره (قابل استعلام)
✍️ وباسکرپینگ چیست
d-learn.ir/p/what-is-web-scraping
✍️ وباسکرپینگ برای روزنامهنگاران و پژوهشگران
www.tgoop.com/dlearn_ir/590
⏳ برای استفاده از تخفیف بیشتر زودتر ثبتنام کنید:
🙂 کد تخفیف 30% برای پرداخت کامل:
🙂 کد تخفیف 20% برای پرداخت قسطی:
⭐ اعتبار کدهای تخفیف تا ۱۴ اردیبهشت ۱۴۰۴
🔗 لینک ثبت نام:
d-learn.ir/wbsp
تماس:
📱 www.tgoop.com/dlearnsup
📞 02188349244
📲 09103209837
@dlearn_ir
#ویدئوی_معرفی_دوره
Web Scraping with Python and Other Tools
✍️ وباسکرپینگ چیست
d-learn.ir/p/what-is-web-scraping
✍️ وباسکرپینگ برای روزنامهنگاران و پژوهشگران
www.tgoop.com/dlearn_ir/590
Fvxp30
VxpF20
⭐ اعتبار کدهای تخفیف تا ۱۴ اردیبهشت ۱۴۰۴
d-learn.ir/wbsp
تماس:
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM
این گونه آثار با تصمیمات نقاش و حرکت قلموی او روی بوم نقاشی تولید نمیشود، بلکه با استفاده از مجموعهای محدود و مشخص از قواعد و مقدارهای اولیه اولیه که معمولا تحت عنوان سامانههای مولد یا زایشگر از آن یاد میشود.
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM
مدرسه تحلیل داده دقیقه
📽️ استخراج داده از وب #ویدئوی_معرفی_دوره 🎓 مجید پورکاشانی | همبنیانگذار، توسعهدهنده نرمافزار و مهندس داده در شرکت پردازش و تحلیل داده دقیقه، کارشناسی مهندس برق از دانشگاه شریف و کارشناسی ارشد هوش مصنوعی از دانشگاه علموصنعت Web Scraping with Python…
وباسکرپینگ به فرایند استخراج خودکار دادهها از وبسایتها گفته میشود. این روش به کاربران امکان میدهد تا بدون نیاز به ورود دستی اطلاعات، دادههای مورد نیاز را از صفحات وب جمعآوری کرده و برای تحلیلهای بعدی ذخیرهسازی کنند.
این فرآیند را میتوان به مثابه بهرهگیری از یک مکانیزم خودکار با سرعت و دقت بالا برای پیمایش و استخراج داده از صدها یا هزاران صفحه وب در کوتاهترین زمان ممکن، تصور نمود.
کسب مهارت در وب اسکرپینگ، مجموعهای از مزایای فنی و استراتژیک قابل توجه را ارائه میدهد:
۱- جمعآوری کارآمد دادهها
۲- تحقیقات مقرون به صرفه
۳- دقت بالا
۴- دسترسی به دادههای با سرعت بالا
۵-- تحلیل رقابتی
۶-- جمعآوری دادههای قابل سفارشیسازی
۱- اتوماسیون فرآیندهای جمعآوری دادهها
۲- پایش و بهینهسازی پویای قیمتها
۳- تولید لیدهای هوشمند
۴- تحلیل احساسات
۵- تحقیقات بازار و هوش تجاری
۶- پژوهشهای علمی و مطالعات اجتماعی
۷- بازارهای مالی و سرمایهگذاری؟
۸- روزنامهنگاری و رسانهها
توضیحات در مورد نمونههای کاربردی برای هر یک از کاربردها، آینده شغلی و مطالعه کامل متن در لینک زیر در دسترس است:
تماس:
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM
مدرسه تحلیل داده دقیقه
شاخصهای محصول به شما کمک میکنند موفقیت و شکست را بسنجید و محصولاتی سریعتر، هوشمندانهتر و بهتر تولید کنید.
در ادامه برخی از این شاخصها آمدهاند:
Monthly Recurring Revenue (MRR)
درآمد کل ماهانهای که انتظار میرود در یک ماه ایجاد شود.
Average Revenue Per User (ARPU)
چه میزان درآمد به ازای هر کاربر به صورت ماهانه یا سالانه ایجاد خواهد شد.
Customer Lifetime Value (CLTV)
محاسبه درآمد قابل پیشبینی که میتوانید در طول دوره عمر یک مشتری به عنوان کاربر پرداختکننده کسب کنید.
Customer Acquisition Cost (CAC)
هزینه جذب یک مشتری برای پرداخت هزینه محصول، شامل بازاریابی، فروش و تبلیغات.
Daily/Monthly Active Users (DAU/MAU)
آیا کاربران در حال کاهش یا افزایش هستند و به پیشبینی، بودجهبندی و برنامهریزی کمک میکند.
Website Traffic (Traffic)
چه تعداد کاربر وبسایت شما را پیدا کردهاند و به شما کمک میکنند تبلیغات، سئو و هزینهها را سازماندهی کنید.
Bounce rate (BR)
درصد کاربرانی که بعد از دیدن یک صفحه خارج شدهاند. هر چه درصد پایینتر باشد، بهتر است.
Average Session Duration(A.SD)
پیگیری میکند کاربران به طور متوسط چه مدت زمانی را در وبسایت شما میگذرانند.
Churn Rate (CR)
پیگیری درصد کاربرانی که استفاده از محصول شما را در یک دوره زمانی مشخص متوقف کردهاند.
Net Promoter Score (NPS)
روشی برای دریافت بازخورد از کاربران و سنجش رضایت کلی آنها از محصول.
Acquisition Rate (AR)
روشی برای دریافت بازخورد از کاربران و سنجش رضایت کلی آنها از محصول.
Client Retention Rate (CRR)
نشاندهنده توانایی محصول در حفظ کاربران و تعامل با آنها در یک دوره زمانی طولانی است.
همچنین اگر علاقهمند به یادگیری گام به گام و پروژهمحور مهارتهای ساخت و ارزیابی محصول هستید دوره آنلاین مدیریت محصول برای شما طراحی شدهاست. اطلاعات بیشتر در:
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM
Saeed Majidi | Hamideh Hosseinzadeh
d-learn.ir/mlpy
Alireza Chamanzar | Majid Pourkashani | Saeed Majidi | Hesam Mohammad Hosseini
d-learn.ir/ai4p
Majid Pourkashani
d-learn.ir/wbsp
Hesam Mohammad Hosseini
d-learn.ir/pyps
AmirKhosro Bahadori
d-learn.ir/pdmn
Fvxp30
Fvxp30
💎 اعتبار کدهای تخفیف تا ۱۴ اردیبهشت ۱۴۰۴
شروع از دورهها از نیمه اردیبهشت ۱۴۰۴
@dlearnsup
09103209837
02188349244
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
مدرسه تحلیل داده دقیقه
Photo
پلتفرم خدمات کاریابی و #استخدام جابویژن از از سال 1399، پیوسته گزارشهایی را با عنوان حقوق و دستمزد با نظرسنجی از نیروهای کار در سراسر کشور منتشر میکند. گزارش حقوق و دستمزد 1404 با شرکت بیش از 100هزار نفر، در 600 خانواده شغلی به تفکیک گروه شغلی، سطح ارشدیت و جغرافیا اخیرا منتشر شدهاست.
در این نوشته، اطلاعات و نکات مهم این گزارش و به صورت اختصاصی مشاغل مربوط به داده بازنشر شده.
کارفرماها و کارجویان اعتقاد دارند که بهدلیل وجود شرایط تورمی در کشور، حقوق افراد باید متناسب با تورم افزایش یابد تا قدرت خریدشان ثابت بماند.
بنا به دلایل مختلف از جمله گروه شغلی، مدت حضور در بازار کار و… حقوق #زنان ٪۲۸ کمتر از مردان است.
سطح ارشدیت مهمترین عامل برای افزایش حقوق است، درحالیکه سابقه کار در میانه مسیر شغلی بیتاثیر میشود.
اکثر مشاغلی که مرتبط با تکنولوژی بودهاند (مانند توسعه نرمافزار، مدیر محصول و تحلیلگر کسبوکار، هوش مصنوعی و علوم داده و ...) حقوقهای بالایی دارند و رشد زیادی را تجربه کردهاند.
نوع #دانشگاه محل تحصیل #کمترین تاثیر را بر حقوق دریافتی دارد.
همچنین میتوانید گزارش کامل را از سایت جابویژن دانلود کنید.
تا ۲۲ فروردین وقت دارید تا دورههای به
@dlearnsup
09103209837
02188349244
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
#دوره_آموزشی_آنلاین
🎓 امیرخسرو بهادری | مدیر محصول شرکت استرالیایی Dirodi، مدیـر سـابق در تیمهای برنامهریزی و تحقیقات بازار پاکشوما، BAT و هولدینگ کوبلدارو، فارغالتحصیل کارشناسی ارشد مهندسی صنایع از دانشگاه صنعتی شریف
موفقیت یک محصول تنها به ایدههای خلاقانه بستگی ندارد. مدیریت درست محصول از مرحله ایدهپردازی تا عرضه و توسعه، نقش حیاتی در موفقیت آن دارد. دوره آموزشی «مدیریت محصول» طراحی شده است تا شما را با اصول، ابزارها و تکنیکهای کلیدی این حوزه آشنا کند و در یک دوره زمانی فشرده، شما را برای تبدیلشدن به یک مدیر محصول حرفهای آماده سازد. اگر میخواهید محصولاتی بسازید که نیاز واقعی کاربران را برآورده کند و حضوری موثر در بازار داشته باشد، این دوره بهترین نقطه شروع برای شماست.
✍️ شاخصهای کلیدی عملکرد در مدیریت محصول:
www.tgoop.com/dlearn_ir/569
✍️ مزایای درآمدی مدیران محصول:
www.tgoop.com/dlearn_ir/576
✍️ روش CIRCLES برای حل مسائل پیچیده کسبوکار:
www.tgoop.com/dlearn_ir/593
💎 برای استفاده از تخفیف بیشتر زودتر ثبتنام کنید:
Fvxp30
VxpF20
⭐ اعتبار کدهای تخفیف تا ۱۴ اردیبهشت ۱۴۰۴
d-learn.ir/pdmn
تماس:
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM
در فرایند تحلیل معمولا دادهها نیاز به پیشپردازش و پاکسازی دارند تا به قالب مناسبی برای تحلیل نهایی برسند.
فرایند پاکسازی معمولا این چند مرحله است:
+ تغییر نام ستونها
+ تغییر جنس ستونها
+ مشاهده و حذف دادههای تکراری
+ حذف دادههای حاوی NaN
+ حذف سطر و ستون
DataFrame.rename(columns = {dict}, inplace = True)
عبارت columns: یک دیکشنری که نام فعلی ستونها Key و نام جدید آنها Valueهای این دیکشنری هستند.
عبارت inplace: بیان میکند که این تغییرات بلافاصله بر روی DataFrame فعلی و بدون نیاز به یک کپی از آن انجام شود (True) یا خیر (False).
#بررسی نوع ستونها
print(provincesDF.dtypes)
'''
province object
center object
region float64
population float64
area float64
dtype: object
'''
#تغییر نوع ستون انتخابی
provincesDF['region'] = provincesDF['region'].astype(str)
print(provincesDF.dtypes) #خروجی
'''
province object
center object
region object
population float64
area float64
dtype: object
'''
برای پیبردن به اینکه آیا DataFrame حاوی سطری تکراری است، از تابع زیر استفاده میشود:
DataFrame.duplicated(keep = ['first', 'last'])
این تابع یک لیست حاوی مقادیر Boolean و بهاندازه تعداد سطرها برمیگرداند. به هرسطری که تکراری باشد مقدار True نسبت داده میشود. دقت داشته باشید که دو سطر درصورتی تکرار هم درنظرگرفته میشوند، که در تمامی ستونها مقادیر آنها دقیقا مشابه یکدیگر باشد.
عبارت keep: فرض کنید که دوسطر i و j تکراری باشند و i قبل از j قرار گرفته باشد. درصورتیکه 'keep = 'first باشد، Pandas سطر i را نگهداشته و سطر j را تکراری اعلام میکند. درصورتی که 'keep = 'last باشد، برعکس این اتفاق رخ میدهد و سری i تکراری درنظر گرفته میشود.
پس از تشخیص وجود داده، سطر، تکراری میتوانیم، درصورت نیاز، با استفاده از تابع زیر اقدام به حذف آن سطور کنیم :
DataFrame.drop_duplicates(inplace, keep = ['first','last'])
این تابع یک لیست حاوی مقادیر Boolean و بهاندازه تعداد سطرها برمیگرداند. به هرسطری که تکراری باشد مقدار True نسبت داده میشود. دقت داشته باشید که دو سطر درصورتی تکرار هم درنظرگرفته میشوند، که در تمامی ستونها مقادیر آنها دقیقا مشابه یکدیگر باشد.
عبارت inplace: یک مقدار Boolean که مشخص میکند که عمل حذف بر روی خود DataFrame انجام شود ('inplace = 'True) و یا DataFrame بدون تغییر مانده و عمل حذف بر روی یک کپی از آن اعمال شود ('inplace = 'False). مقدار پیشفرض برابر با False است.
عبارت keep: بیان میکند که از اعضای تکراری، مورد اول ('first') و یا مورد آخر('last') نگهداشته شوند.
در مرحله اول باید بررسی کنیم که آیا DataFrame حاوی مقدار Null است یا خیر. برای این امر از تابع ()isnull استفاده میکنیم:
DataFrame.isnull()
خروجی این تابع یک DataFrame به اندازهی DataFrame اصلی است که محتوای آن مقادیر True/False میباشد. اگر مقدار خانهای برابر با True باشد، به این معنی است که خانهی متناظر در DataFrame اصلی حاوی مقدار Null است.
سادهترین رویکرد برخورد با دادههای ناموجود، حذف سطرها و یا ستون هایی است که حداقل در یکی از خانهها مقداری ندارند. Pandas برای این روش از تابع ()dropna استفاده میکند:
DataFrame.isnull(inplace, axis = {0,1})
عبارت inplace: یک مقدار Boolean که مشخص میکند که عمل حذف بر روی خود DataFrame انجام شود ('inplace = 'True) و یا DataFrame بدون تغییر مانده و عمل حذف بر روی یک کپی از آن اعمال شود ('inplace = 'False). مقدار پیشفرض برابر با False است.
عبارت axis: درصورتی که 0 باشد بیانگر حذف سطر و 1 بیانگر حذف ستون است. مقدار پیشفرض آن برابر با 0 (حذف سطر) است.
همچنین اگر علاقهمند به یادگیری مهارتهای پردازش و تحلیل دادههای حجیم در پایتون هستید، دوره آموزشی پردازش بهینه با pandas و polars برای شما طراحی شدهاست.
Fvxp30
VxpF20
⭐ اعتبار کدهای تخفیف تا ۱۴ اردیبهشت ۱۴۰۴
لینک ثبتنام:
تماس:
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM
🔍 آشنایی با الگوریتم K-means
🌐 واژهنامه #هوش_مصنوعی
الگوریتم K-means یکی از پرکاربردترین روشهای خوشهبندی داده است. این الگوریتم در1️⃣ ➕ 3️⃣ مرحله اصلی کار میکند:
1️⃣ گام اول: انتخاب مراکز اولیه
ابتدا به صورت تصادفی K نقطه داده (مثلاً 3 نقطه) از مجموعه داده را انتخاب میکنیم و آنها را به عنوان مراکز اولیه خوشهها در نظر میگیریم. فرض کنید در یک نمودار دوبعدی، این سه نقطه اولیه با رنگهای متفاوت (قرمز، آبی و سبز) مشخص شدهاند.
2️⃣ گام دوم: تخصیص نقاط به خوشهها
در این مرحله، فاصله هر نقطه داده را با تمام مراکز خوشهها محاسبه میکنیم. معمولاً از معیار فاصله اقلیدسی استفاده میشود (فرمول فیثاغورس). هر نقطه به خوشهای تعلق میگیرد که مرکز آن نزدیکترین فاصله را با نقطه دارد. در این مرحله، نمودار ما نقاط دادهای را نشان میدهد که به سه رنگ مختلف (متناسب با خوشههای متفاوت) رنگآمیزی شدهاند.
3️⃣ گام سوم: بهروزرسانی مراکز خوشهها
حالا مراکز جدید هر خوشه را با محاسبه میانگین تمام نقاط داده متعلق به آن خوشه به دست میآوریم. برای مثال، اگر خوشه قرمز شامل 20 نقطه داده باشد، مختصات x و y همه این نقاط را جمع کرده و بر 20 تقسیم میکنیم تا مرکز جدید خوشه به دست آید. مراکز جدید معمولاً با مراکز قبلی متفاوت هستند و در نمودار جابجا میشوند.
4️⃣ تکرار فرآیند تا همگرایی
گامهای دوم و سوم را مرتباً تکرار میکنیم. در هر تکرار، نقاط داده دوباره به نزدیکترین مرکز خوشه تخصیص مییابند و سپس مراکز خوشهها مجدداً بهروزرسانی میشوند. این فرآیند تا زمانی ادامه مییابد که مراکز خوشهها دیگر تغییر نکنند یا تغییرات آنها کمتر از یک آستانه از پیش تعیینشده باشد.
🟠 مثال کاربردی:
تصور کنید مجموعه دادهای از مشتریان فروشگاه دارید که شامل اطلاعاتی مانند میزان خرید سالانه و تعداد بازدید است. با استفاده از K-means میتوانید این مشتریان را به گروههای مختلف (مثلاً مشتریان پرخرید و وفادار، مشتریان گاهبهگاه، مشتریان کمخرید) دستهبندی کنید. هر خوشه نشاندهنده یک بخش از مشتریان با رفتار مشابه است و میتوانید استراتژیهای بازاریابی خاصی برای هر گروه طراحی کنید.
🟢 نکات مهم در استفاده از الگوریتم K-means:
انتخاب تعداد مناسب K (تعداد خوشهها) بسیار مهم است و تأثیر زیادی بر نتایج دارد.
این الگوریتم ممکن است در مینیممهای محلی گیر کند، بنابراین اجرای آن با مراکز اولیه متفاوت توصیه میشود.
الگوریتم K-means برای خوشههای کروی (گرد) بهتر عمل میکند و برای اشکال پیچیده مناسب نیست.
مقیاسبندی دادهها قبل از اجرای الگوریتم اهمیت زیادی دارد.
💡 این الگوریتم در زمینههای متنوعی مانند بخشبندی بازار، فشردهسازی تصاویر، پردازش سیگنال، بیوانفورماتیک و تشخیص ناهنجاری کاربرد دارد.
➖ ➖ ⬇️ ➖ ➖
همچنین اگر علاقهمند به یادگیری هوش مصنوعی هستید، گام اول برای شما آموزش یادگیری ماشین هست.
دوره آموزشی «یادگیری ماشین با پایتون» از مبانی یادگیری ماشین آغاز میشود و گام به گام تا مباحث پیچیدهتری مثل یادگیری گروهی، کاهش ابعاد داده و شبکههای عصبی پیش میرود.
😈 این دوره به صورت عملیاتی و کاربردی طراحی شده است. برای اطلاعات بیشتر و مشاهده طرح درس و ثبتنام میتوانید به سایت مدرسه دقیقه سر بزنید:
🔗 d-learn.ir/mlpy
تماس:
📱 www.tgoop.com/dlearnsup
📞 02188349244
📲 09103209837
@dlearn_ir
الگوریتم K-means یکی از پرکاربردترین روشهای خوشهبندی داده است. این الگوریتم در
ابتدا به صورت تصادفی K نقطه داده (مثلاً 3 نقطه) از مجموعه داده را انتخاب میکنیم و آنها را به عنوان مراکز اولیه خوشهها در نظر میگیریم. فرض کنید در یک نمودار دوبعدی، این سه نقطه اولیه با رنگهای متفاوت (قرمز، آبی و سبز) مشخص شدهاند.
در این مرحله، فاصله هر نقطه داده را با تمام مراکز خوشهها محاسبه میکنیم. معمولاً از معیار فاصله اقلیدسی استفاده میشود (فرمول فیثاغورس). هر نقطه به خوشهای تعلق میگیرد که مرکز آن نزدیکترین فاصله را با نقطه دارد. در این مرحله، نمودار ما نقاط دادهای را نشان میدهد که به سه رنگ مختلف (متناسب با خوشههای متفاوت) رنگآمیزی شدهاند.
حالا مراکز جدید هر خوشه را با محاسبه میانگین تمام نقاط داده متعلق به آن خوشه به دست میآوریم. برای مثال، اگر خوشه قرمز شامل 20 نقطه داده باشد، مختصات x و y همه این نقاط را جمع کرده و بر 20 تقسیم میکنیم تا مرکز جدید خوشه به دست آید. مراکز جدید معمولاً با مراکز قبلی متفاوت هستند و در نمودار جابجا میشوند.
گامهای دوم و سوم را مرتباً تکرار میکنیم. در هر تکرار، نقاط داده دوباره به نزدیکترین مرکز خوشه تخصیص مییابند و سپس مراکز خوشهها مجدداً بهروزرسانی میشوند. این فرآیند تا زمانی ادامه مییابد که مراکز خوشهها دیگر تغییر نکنند یا تغییرات آنها کمتر از یک آستانه از پیش تعیینشده باشد.
تصور کنید مجموعه دادهای از مشتریان فروشگاه دارید که شامل اطلاعاتی مانند میزان خرید سالانه و تعداد بازدید است. با استفاده از K-means میتوانید این مشتریان را به گروههای مختلف (مثلاً مشتریان پرخرید و وفادار، مشتریان گاهبهگاه، مشتریان کمخرید) دستهبندی کنید. هر خوشه نشاندهنده یک بخش از مشتریان با رفتار مشابه است و میتوانید استراتژیهای بازاریابی خاصی برای هر گروه طراحی کنید.
انتخاب تعداد مناسب K (تعداد خوشهها) بسیار مهم است و تأثیر زیادی بر نتایج دارد.
این الگوریتم ممکن است در مینیممهای محلی گیر کند، بنابراین اجرای آن با مراکز اولیه متفاوت توصیه میشود.
الگوریتم K-means برای خوشههای کروی (گرد) بهتر عمل میکند و برای اشکال پیچیده مناسب نیست.
مقیاسبندی دادهها قبل از اجرای الگوریتم اهمیت زیادی دارد.
همچنین اگر علاقهمند به یادگیری هوش مصنوعی هستید، گام اول برای شما آموزش یادگیری ماشین هست.
دوره آموزشی «یادگیری ماشین با پایتون» از مبانی یادگیری ماشین آغاز میشود و گام به گام تا مباحث پیچیدهتری مثل یادگیری گروهی، کاهش ابعاد داده و شبکههای عصبی پیش میرود.
تماس:
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM
مدرسه تحلیل داده دقیقه
🔵 استفاده از هوش مصنوعی (AI) در زندگی حرفهای هوش مصنوعی در حال تغییر شیوه کار و زندگی ماست و بسیاری از مشاغل دگرگون کرده است. از انجام وظایف اداری و پشتیبانی مشتری گرفته تا تولید محتوا و تحلیل داده، هوش مصنوعی با افزایش سرعت و دقت، بهرهوری را به سطحی جدید…
Media is too big
VIEW IN TELEGRAM
#دوره_آموزشی_آنلاین
هوش مصنوعی در حال تغییر شیوه کار و زندگی ماست و بسیاری از مشاغل دگرگون کرده است. از انجام وظایف اداری و پشتیبانی مشتری گرفته تا تولید محتوا و تحلیل داده، هوش مصنوعی با افزایش سرعت و دقت، بهرهوری را به سطحی جدید رسانده است.
اگر دوست دارید از این تحول برای رشد حرفهای خود استفاده کنید، این دوره فرصت یادگیری و تمرین آن را برای شما فراهم میکند. در این کارگاه آموزشی از مفاهیم پایه هوش مصنوعی و کاربردهای روزمره آن گرفته تا مواردی مثل مانند نامهنگاری رسمی، تنظیم قرارداد، گردآوری اطلاعات، تهیه گزارش، انواع تولید محتوا و تحلیل داده در کسبوکار با استفاده از هوش مصنوعی را بهصورت عملی یاد میگیرید و تمرین میکنید.
🎓 مدرسان دوره: سعید مجیدی متخصص یادگیری ماشین و هوش مصنوعی در گروه صنعتی انتخاب | حسام محمدحسینی مدیر ارشد مهندسی داده و پلتفرم ارزش مشتری ایرانسل | علیرضا چمنزار تحلیلگر داده در شرکت پردازش و تحلیل داده دقیقه | مجید پورکاشانی مدیرعامل شرکت پردازش و تحلیل داده دقیقه
NwA30
NpW20
d-learn.ir/ai4p?utm=ldp
تماس:
Please open Telegram to view this post
VIEW IN TELEGRAM
مدرسه تحلیل داده دقیقه
وباسکرپینگ به فرآیند جمعآوری اطلاعات از وبسایتها به صورت خودکار گفته میشود. این اطلاعات میتوانند شامل قیمتها، اخبار، مشخصات محصولات یا هر نوع داده قابل مشاهده در صفحات وب باشند. این تکنیک امکان تبدیل محتوای وب به دادههای قابل تحلیل را فراهم میکند.
روزنامهنگاران اقتصادی یا پژوهشگران بازار میتوانند با استخراج دورهای قیمت انواع کالا (مثلاً تجهیزات دیجیتال، خودرو، کالاهای اساسی) از وبسایتهای فروش آنلاین متعدد یا نرخ ارز و طلا، به تحلیل دقیق نوسانات بازار، مقایسه قیمتها و بررسی اثر سیاستگذاریها بپردازند.
جمعآوری و تحلیل دادههای مربوط به آگهیهای شغلی از پلتفرمهای کاریابی مطرح در ایران. این امر امکان شناسایی مهارتهای پرتقاضا، توزیع جغرافیایی فرصتهای شغلی، تحلیل روندهای استخدامی در صنایع مختلف و برآورد سطح دستمزدها را فراهم میکند.
استخراج دادههای مرتبط با بازار مسکن (قیمت، متراژ، منطقه) از وبسایتهای نیازمندی یا جمعآوری دادههای مربوط به شاخصهای عمومی مانند کیفیت هوا از پرتالهای رسمی. این دادهها مبنای مناسبی برای تحلیل روندهای اجتماعی، اقتصادی و محیطی فراهم میآورند.
در مواردی که آمار رسمی برای رخدادهای حساس اجتماعی (نظیر موارد خودکشی، قتل، یا آسیبهای اجتماعی خاص) به صورت عمومی، دقیق یا بههنگام منتشر نمیشود، وباسکرپینگ میتواند به عنوان ابزاری کمکی به کار گرفته شود.
با استخراج هدفمند اخبار مرتبط از وبسایتهای خبری معتبر داخلی و تحلیل محتوای آنها (بر اساس کلیدواژهها، مناطق جغرافیایی و بازههای زمانی)، میتوان به یک نمایه غیررسمی از فراوانی گزارششده این رویدادها و توزیع جغرافیایی آنها دست یافت.
وب اسکرپینگ به عنوان یک مهارت کلیدی، امکان دستیابی به عمق تحلیلی بیشتر و ارائه گزارشهای دقیقتر و مستندتر را فراهم میسازد که سریعتر و راحتتر به سرانجام رسیدهاند. استفاده از این تکنیک میتواند به ارتقاء کیفیت پژوهشها و اطلاع رسانی در جامعه کمک شایانی نماید.
اگر علاقهمند به یادگیری گام به گام و پروژهمحور وباسکرپینگ هستید، دوره آموزشی استخراج داده از وب برای شما طراحی شده است.
اطلاعات بیشتر در:
Fvxp30
VxpF20
⭐ اعتبار کدهای تخفیف تا ۱۴ اردیبهشت ۱۴۰۴
d-learn.ir/wbsp
تماس:
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM
مدرسه تحلیل داده دقیقه
🔍 آشنایی با الگوریتم K-means 🌐 واژهنامه #هوش_مصنوعی الگوریتم K-means یکی از پرکاربردترین روشهای خوشهبندی داده است. این الگوریتم در 1️⃣ ➕ 3️⃣ مرحله اصلی کار میکند: 1️⃣ گام اول: انتخاب مراکز اولیه ابتدا به صورت تصادفی K نقطه داده (مثلاً 3 نقطه) از مجموعه…
🔍 آشنایی با الگوریتم درخت تصمیم
🌐 واژهنامه #هوش_مصنوعی
درخت تصمیم یک طبقهبندیکننده است که مجموعهای از قوانین تصمیمگیری را در یک ساختار درختی سازماندهی میکند. این روش یکی از کاربردیترین روشها برای یادگیری نظارتشده غیرپارامتریک است.
درخت تصمیم یک مدل پیشبینی با ساختاری شبیه فلوچارت است که با استفاده از مشاهدات موجود درباره یک آیتم، به پیشبینی مقدار یا برچسب متغیر هدف کمک میکند.
این مدل از گرههایی تشکیل شده که نشاندهنده ویژگیهای داده هستند، شاخههایی که قوانین تصمیمگیری را مشخص میکنند و برگهایی که نتایج نهایی یا کلاسهای خروجی را نمایش میدهند.
ساختار درخت تصمیم در یادگیری ماشین
در درخت تصمیم، ویژگیهای دادهها در گرههای داخلی و خروجی یا نتیجه نهایی هر مسیر در برگهای درخت نمایش داده میشود.
این الگوریتم فرآیند تصمیمگیری را بهصورت سلسلهمراتبی مدلسازی میکند؛ دادهها را بهطور بازگشتی به زیرمجموعههایی تقسیم میکند، بهطوری که در هر مرحله، تقسیمبندی بر اساس ویژگیای انجام میشود که بیشترین اطلاعات را برای پیشبینی هدف فراهم میکند، تا زمانی که به تصمیم یا پیشبینی نهایی برسیم.
💡 مفاهیم اساسی درخت تصمیم
۱- گره (Node): هر نقطه در درخت که یک تصمیمگیری یا نتیجه را نمایش میدهد.
مثال: «آیا هوا آفتابی است؟»
۲- گره ریشه (Root Node): اولین گره درخت است که تصمیمگیری از آن آغاز میشود.
مثال: بررسی «وضعیت آب و هوا».
۳- گره داخلی (Internal Node): گرههایی که تصمیمات میانی را نمایش میدهند و به گرههای دیگر متصلاند.
مثال: «آیا رطوبت بالا است؟»
۴- برگ یا گره پایانی (Leaf/Terminal Node): گرههایی که دیگر به هیچ گرهی متصل نیستند و نتیجه نهایی (مثل یک پیشبینی) را نشان میدهند.
مثال: «بازی کن» یا «بازی نکن».
۵- شاخه (Branch): مسیرهایی که گرهها را به هم وصل میکنند و بر اساس پاسخها (بله/خیر) حرکت میکنند.
۶- ویژگی ورودی (Input Attribute): اطلاعات یا متغیرهایی که بر اساس آنها تصمیمگیری انجام میشود.
مثال: «رطوبت»، «باد»، «دمای هوا».
۷- تقسیمبندی (Splitting): فرآیند تقسیم یک گره بر اساس مقدار یک ویژگی.
در هر تقسیم، دادهها به زیرمجموعههایی با ویژگیهای خاصتر جدا میشوند.
۸- برشدهی (Pruning): حذف بخشهایی از درخت برای جلوگیری از پیچیدگی بیش از حد و بهبود عملکرد مدل.
مثل هرس کردن شاخههای اضافی.
➖ ➖ ⬇️ ➖ ➖
همچنین اگر علاقهمند به یادگیری هوش مصنوعی هستید، گام اول برای شما آموزش یادگیری ماشین هست.
دوره آموزشی «یادگیری ماشین با پایتون» از مبانی یادگیری ماشین آغاز میشود و گام به گام تا مباحث پیچیدهتری مثل یادگیری گروهی، کاهش ابعاد داده و شبکههای عصبی پیش میرود.
😈 این دوره به صورت عملیاتی و کاربردی طراحی شده است. برای اطلاعات بیشتر و مشاهده طرح درس و ثبتنام میتوانید به سایت مدرسه دقیقه سر بزنید:
🔗 d-learn.ir/mlpy
تماس:
📱 www.tgoop.com/dlearnsup
📞 02188349244
📲 09103209837
@dlearn_ir
درخت تصمیم یک طبقهبندیکننده است که مجموعهای از قوانین تصمیمگیری را در یک ساختار درختی سازماندهی میکند. این روش یکی از کاربردیترین روشها برای یادگیری نظارتشده غیرپارامتریک است.
درخت تصمیم یک مدل پیشبینی با ساختاری شبیه فلوچارت است که با استفاده از مشاهدات موجود درباره یک آیتم، به پیشبینی مقدار یا برچسب متغیر هدف کمک میکند.
این مدل از گرههایی تشکیل شده که نشاندهنده ویژگیهای داده هستند، شاخههایی که قوانین تصمیمگیری را مشخص میکنند و برگهایی که نتایج نهایی یا کلاسهای خروجی را نمایش میدهند.
ساختار درخت تصمیم در یادگیری ماشین
در درخت تصمیم، ویژگیهای دادهها در گرههای داخلی و خروجی یا نتیجه نهایی هر مسیر در برگهای درخت نمایش داده میشود.
این الگوریتم فرآیند تصمیمگیری را بهصورت سلسلهمراتبی مدلسازی میکند؛ دادهها را بهطور بازگشتی به زیرمجموعههایی تقسیم میکند، بهطوری که در هر مرحله، تقسیمبندی بر اساس ویژگیای انجام میشود که بیشترین اطلاعات را برای پیشبینی هدف فراهم میکند، تا زمانی که به تصمیم یا پیشبینی نهایی برسیم.
۱- گره (Node): هر نقطه در درخت که یک تصمیمگیری یا نتیجه را نمایش میدهد.
مثال: «آیا هوا آفتابی است؟»
۲- گره ریشه (Root Node): اولین گره درخت است که تصمیمگیری از آن آغاز میشود.
مثال: بررسی «وضعیت آب و هوا».
۳- گره داخلی (Internal Node): گرههایی که تصمیمات میانی را نمایش میدهند و به گرههای دیگر متصلاند.
مثال: «آیا رطوبت بالا است؟»
۴- برگ یا گره پایانی (Leaf/Terminal Node): گرههایی که دیگر به هیچ گرهی متصل نیستند و نتیجه نهایی (مثل یک پیشبینی) را نشان میدهند.
مثال: «بازی کن» یا «بازی نکن».
۵- شاخه (Branch): مسیرهایی که گرهها را به هم وصل میکنند و بر اساس پاسخها (بله/خیر) حرکت میکنند.
۶- ویژگی ورودی (Input Attribute): اطلاعات یا متغیرهایی که بر اساس آنها تصمیمگیری انجام میشود.
مثال: «رطوبت»، «باد»، «دمای هوا».
۷- تقسیمبندی (Splitting): فرآیند تقسیم یک گره بر اساس مقدار یک ویژگی.
در هر تقسیم، دادهها به زیرمجموعههایی با ویژگیهای خاصتر جدا میشوند.
۸- برشدهی (Pruning): حذف بخشهایی از درخت برای جلوگیری از پیچیدگی بیش از حد و بهبود عملکرد مدل.
مثل هرس کردن شاخههای اضافی.
همچنین اگر علاقهمند به یادگیری هوش مصنوعی هستید، گام اول برای شما آموزش یادگیری ماشین هست.
دوره آموزشی «یادگیری ماشین با پایتون» از مبانی یادگیری ماشین آغاز میشود و گام به گام تا مباحث پیچیدهتری مثل یادگیری گروهی، کاهش ابعاد داده و شبکههای عصبی پیش میرود.
تماس:
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM
مدرسه تحلیل داده دقیقه
🔵 پردازش بهینه با pandas و polars پردازش دادههای حجیم در پایتون یکی از چالشهای تحلیلگران داده در مواجهه با دادههای واقعی است. بخش قابل توجهی از این چالشها، با استفاده کارآمد و اصولی از کتابخانه pandas همچنان قابل انجام است. عدم استفاده درست از پانداس،…
Media is too big
VIEW IN TELEGRAM
مدرس دوره آموزشی پردازش بهینه با pandas و polars
همچنین اگر علاقهمند به یادگیری مهارتهای پردازش و تحلیل دادههای حجیم در پایتون هستید، دوره آموزشی پردازش بهینه با pandas و polars برای شما طراحی شدهاست.
Fvxp30
VxpF20
⭐ اعتبار کدهای تخفیف تا ۱۴ اردیبهشت ۱۴۰۴
لینک ثبتنام:
تماس:
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM
مدرسه تحلیل داده دقیقه
در دنیای پر رقابت امروز، توانایی تحلیل منظم مشکلات و ارائه راهحلهای مؤثر، تفاوت بین مدیران معمولی و رهبران استثنایی را رقم میزند.
متد CIRCLES با هفت مرحله ساختاریافته به شما کمک میکند تا تصمیمات استراتژیک بگیرید که منجر به نتایج قابل سنجش میشود.
آنهایی که این روش را بهخوبی میآموزند، میتوانند با اطمینان بیشتری چالشهای پیچیده را مدیریت کنند و به نتایج بهتری دست یابند.
موفقیت یک محصول تنها به ایدههای خلاقانه بستگی ندارد. مدیریت درست محصول از مرحله ایدهپردازی تا عرضه و توسعه، نقش حیاتی در موفقیت آن دارد. دوره آموزشی «مدیریت محصول»
Fvxp30
VxpF20
⭐ اعتبار کدهای تخفیف تا ۱۴ اردیبهشت ۱۴۰۴
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
در این آزمایش، برای هر کتابخانه (pandas و polars)، یک جدول با ۱ میلیون ردیف و ۵۰ ستون عددی ساخته شده و سپس ۱۰۰ بار میانگین ستونی دادهها با تابع
mean()
محاسبه شده است. هدف، اندازهگیری و مقایسه زمان پردازش این عملیات در دو کتابخانه محبوب تحلیل داده در پایتون است.درحالیکه Pandas برای بسیاری از پروژهها کفایت میکند، در پروژههای بزرگتر، Polars میتواند با پردازشهای موازی و طراحی بهینهاش مزیت چشمگیری ایجاد کند.
کتابخانههای Pandas و Polars هر دو ابزارهای قدرتمند تحلیل داده در پایتون هستند؛ در این ویدئو تفاوت را دیدید اما واقعیت این است که:
این دوره برای افرادی طراحی شده که میخواهند سریعتر، بهتر و حرفهایتر کار کنند.
Fvxp30
VxpF20
⭐ اعتبار کدهای تخفیف تا ۱۴ اردیبهشت ۱۴۰۴
لینک ثبتنام:
تماس:
@dlearn_ir
Please open Telegram to view this post
VIEW IN TELEGRAM