Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on null in /var/www/tgoop/function.php on line 65
- Telegram Web
Telegram Web
🔵 عنوان مقاله
Storing Products, Prices and Orders in Postgres

🟢 خلاصه مقاله:
این مقاله نشان می‌دهد که در ذخیره‌سازی محصولات، قیمت‌ها و سفارش‌ها در Postgres نرمال‌سازی افراطی می‌تواند دقت تاریخی و کارایی را مختل کند. راهکار پیشنهادی، ترکیب یک هسته رابطه‌ای با دنرمال‌سازی هدفمند است: نگه‌داشتن اسنپ‌شات «همان‌طور که فروخته شد» در سطرهای سفارش (نام/SKU، قیمت، ارز، مالیات و تخفیف) و نسخه‌بندی یا تاریخ‌دار کردن قیمت‌ها برای حفظ سابقه. برای مقادیر پولی از NUMERIC/DECIMAL و کد ارز استفاده می‌شود، محاسبات مالیات و تخفیف ذخیره می‌گردد، و ویژگی‌های متغیر محصول در JSONB همراه با قیود و ایندکس‌های مناسب مدیریت می‌شوند. همچنین بر مهاجرت‌های افزایشی، تراکنش‌ها و ایندکس‌گذاری/پارتیشن‌بندی برای مقیاس‌پذیری تأکید می‌کند تا هم صحت داده و هم عملکرد تضمین شود.

#Postgres #DatabaseDesign #DataModeling #Ecommerce #Pricing #Normalization #Denormalization #SQL

🟣لینک مقاله:
https://postgresweekly.com/link/177314/web


👑 @Database_Academy
🔵 عنوان مقاله
pg_roaringbitmap 1.0: Roaring Bitmap Extension

🟢 خلاصه مقاله:
** نسخه ۱.۰ pg_roaringbitmap یک افزونه پایدار و آماده‌به‌کار برای PostgreSQL ارائه می‌کند که Roaring bitmaps را به‌صورت بومی در پایگاه‌داده در دسترس می‌گذارد. Roaring bitmaps ساختارهایی فشرده و بهینه برای نمایش مجموعه‌های بزرگ از اعداد صحیح هستند که معمولاً در سرعت و مصرف حافظه از بیت‌مپ‌های فشرده مرسوم بهتر عمل می‌کنند، به‌ویژه در عملگرهایی مانند اجتماع، اشتراک و محاسبه کاردینالیتی.

این افزونه امکان ذخیره‌سازی و پردازش مستقیم Roaring bitmaps در SQL را فراهم می‌کند؛ در نتیجه فیلترهای عضویت، پرس‌و‌جوهای تحلیلی و بارهای کاری بزرگ با حافظه و I/O کمتر و سرعت بیشتر اجرا می‌شوند. چنین قابلیتی برای تحلیل رویداد، تله‌متری، حوزه‌های ad-tech و ایندکس‌گذاری معکوس کاربرد ویژه‌ای دارد و به تیم‌ها کمک می‌کند بدون ترک پایگاه‌داده، از مزایای فشرده‌سازی و کارایی بالای Roaring bitmaps بهره ببرند.

#PostgreSQL #pg_roaringbitmap #RoaringBitmap #Database #Compression #Performance #Analytics

🟣لینک مقاله:
https://postgresweekly.com/link/176997/web


👑 @Database_Academy
🔵 عنوان مقاله
Microsoft Unveils a New Postgres Service: Azure HorizonDB

🟢 خلاصه مقاله:
** مایکروسافت سرویس جدیدی برای Postgres با نام Azure HorizonDB معرفی کرده که در کنار Azure Database for PostgreSQL عرضه می‌شود و برای نیازهای بسیار سنگین سازمانی هدف‌گذاری شده است. این سرویس با پشتیبانی تا 3072 vCores در میان نودها و ظرفیت پایگاه‌داده تا 128TB، روی کارایی و مقیاس‌پذیری تمرکز دارد. فعلاً در مرحله پیش‌نمایش اولیه است و احتمالاً با قیمت‌گذاری پریمیوم/پرهزینه ارائه خواهد شد.

#Microsoft #Azure #PostgreSQL #HorizonDB #CloudDatabase #Scalability #EarlyPreview

🟣لینک مقاله:
https://postgresweekly.com/link/177306/web


👑 @Database_Academy
🔵 عنوان مقاله
From Text to Token: How Tokenization Pipelines Work

🟢 خلاصه مقاله:
** این مطلب در دو بخش به نکات کاربردی می‌پردازد. در بخش اول، «From Text to Token: How Tokenization Pipelines Work» به قلم James Blackwood-Sewell توضیح می‌دهد که چگونه متن خام طی مراحلی مانند نرمال‌سازی، پیش‌توکنیزه‌کردن و به‌کارگیری الگوریتم‌های زیرواژه‌ای مثل BPE، WordPiece و Unigram به توکن تبدیل می‌شود. نکاتی مانند ساخت واژگان، استفاده از توکن‌های ویژه (PAD، BOS/EOS، CLS/SEP)، مدیریت نویسه‌های ناشناخته، حفظ آفست‌ها، و چالش‌های چندزبانه و ایموجی‌ها مطرح می‌شود. همچنین بر ملاحظات مهندسی مانند تکه‌تکه‌کردن متن‌های بلند، اسلایدینگ ویندو، تفاوت نیازهای آموزش و استنتاج، و بهینه‌سازی عملکرد با ابزارهایی مانند Hugging Face Tokenizers و SentencePiece تأکید می‌شود؛ چرا که تعداد توکن‌ها مستقیماً بر هزینه و تأخیر سامانه‌های LLM اثر می‌گذارد.

در بخش دوم، «Understanding and Setting Postgres JDBC Fetch Size» نوشته Shane Borden توضیح می‌دهد که رفتار پیش‌فرض Postgres JDBC ممکن است برای نتایج بزرگ حافظه را پر کند و چگونه با فعال‌کردن سرور-ساید کرسرها و تنظیم setFetchSize (یا defaultRowFetchSize) می‌توان نتایج را به‌صورت batched و استریم‌شده دریافت کرد. به ارتباط این تنظیم با autocommit، بازه‌های پیشنهادی برای اندازه batch، موازنه بین تعداد رفت‌وبرگشت شبکه و مصرف حافظه، و نکات عملی مانند بستن به‌موقع ResultSet/Statement و هماهنگی با تنظیمات ORM (مثلاً hibernate.jdbc.fetch_size) پرداخته می‌شود. جمع‌بندی این است که کنار بهینه‌سازی fetch size، طراحی کوئری و ایندکس مناسب و پروفایل‌کردن حافظه و زمان، برای پایایی و کارایی ضروری است.

#Tokenization #NLP #Postgres #JDBC #PerformanceTuning #DataEngineering #LLM #Database

🟣لینک مقاله:
https://postgresweekly.com/link/175726/web


👑 @Database_Academy
🔵 عنوان مقاله
Ax 1.0: Efficient Optimization With Adaptive Experimentation (5 minute read)

🟢 خلاصه مقاله:
این مقاله Ax 1.0 را به‌عنوان یک پلتفرم متن‌باز برای بهینه‌سازی تطبیقی در مقیاس تولیدی معرفی می‌کند که در Meta برای سیستم‌های ML به‌کار می‌رود. Ax به‌جای تکیه بر جست‌وجوی brute-force مانند grid/random، از روش‌های Bayesian و آزمایش‌های پی‌درپی استفاده می‌کند تا جست‌وجو را کارآمدتر کرده و زمان و محاسبات را کاهش دهد. این پلتفرم برای تنظیم hyperparameterها، بهینه‌سازی معیارها و تیونینگ سیستم طراحی شده و با قیود پیچیده، داده‌های پرنویز، پیشنهادهای موازی و توقف زودهنگام به‌خوبی کنار می‌آید. یک مقاله پژوهشی پیوست نیز معماری، قابلیت‌ها و عملکرد Ax را در مقیاس بزرگ تشریح می‌کند و امکان بهره‌گیری از این توانمندی‌ها را برای جامعه متن‌باز فراهم می‌سازد.

#Ax #BayesianOptimization #HyperparameterTuning #Meta #MLOps #AdaptiveExperimentation #SequentialOptimization #OpenSource

🟣لینک مقاله:
https://engineering.fb.com/2025/11/18/open-source/efficient-optimization-ax-open-platform-adaptive-experimentation/?utm_source=tldrdata


👑 @Database_Academy
یه تله‌ی بزرگ که پروژه‌ها و اغلب برنامه‌‌نویس‌های بکند توش میوفتن، اینه که برای حل یه مشکل، سعی می‌کنن یه مشکل جدید ایجاد کنن.

دیتابیس همیشه Source of Truth هستش، و اضافه کردن لایه‌ی کش، می‌تونه بعضی مواقع ریسک stale شدن دیتا رو ایجاد کنه. چون مثلا ممکنه در لحظه‌ی آپدیت کش، ردیس خطا بده و ...

به نظر من کش زمانی باید به پروژه اضافه بشه که سیستم، زیر بار دیگه جواب‌گوی تعداد ریکوئست‌ها نباشه و latency به اندازه‌ی خوبی بالا رفته باشه. اندازه‌گیری این تاخیر هم، یه عدد ثابت نداره. باید در یک بازه‌ی زمانی محاسبه بشه.

اگه احساس بر اینه که کوئری‌ها سنگین هستن و باید کش اضافه بشه، میتونه چند تا احتمال وجود داشته باشه:
۱- نورمالیزیشن درست انجام نشده
۲- دومین درست تعریف نشده
۳- کوئری‌ها بهینه نیستند (ممکنه بجای گرفتن لیستی از رکورد‌ها، یکی یکی واکشی می‌شن)

@ | <آرش | Arash/>
👍3
Forwarded from AI Labdon
قابلیتِ جالبِ Gemini 3 که با Banana Pro میسر هست !

مثلا اگر یک ویدئو آموزشی ۲۰ دقیقه ای یوتیوب دارید و وقت ندارید کامل ببینید و میخواید خلاصه ش رو به صورت یک پوستر گرافیکی ( اینفوگرافیک ) داشته باشید !

آموزش نحوه استفاده از این قابلیت :

۱ لینک ویدئو یوتیوب رو Copy میکنید .

۲ وارد Gemini میشید .

۳ لینک کپی شده رو Paste میکنید و ازش بخواید که ویدئو رو آنالیز و بررسی کنه .

۴ بعد از اینکه بررسی کرد ، حالا این پرامپت وارد کنید !

Prompt :  Generate an image of an infographic explaining the concept presented in the video.
2
چهار استراتژی کلیدی برای مقیاس‌پذیری مؤثر پایگاه داده

با رشد سیستم‌ها و افزایش تعداد کاربران، پایگاه داده به یکی از حساس‌ترین و چالش‌برانگیزترین بخش‌های معماری نرم‌افزار تبدیل می‌شود. انتخاب رویکرد مناسب برای مقیاس‌پذیری، نقش مهمی در حفظ کارایی، پایداری و در دسترس‌پذیری سرویس دارد. در این مقاله، چهار استراتژی رایج و اثربخش برای مقیاس‌پذیری پایگاه داده را بررسی می‌کنیم.

۱) استراتژی Vertical Scaling (افزایش ظرفیت سخت‌افزاری)
ساده‌ترین روش برای افزایش توان پردازشی پایگاه داده، ارتقای منابع سخت‌افزاری نظیر CPU، RAM و فضای ذخیره‌سازی است.
این رویکرد بدون نیاز به تغییرات ساختاری در نرم‌افزار انجام می‌شود و در بسیاری از سیستم‌ها، اولین گام منطقی برای افزایش ظرفیت به شمار می‌آید.
با این حال، Vertical Scaling دارای محدودیت ذاتی است و نهایتاً تا سقف مشخصی قابل افزایش است.

۲) استراتژی Replication (توزیع بار خواندن)
در Replication با ایجاد نسخه‌های متعدد از داده، امکان توزیع بار خواندن بین چندین نود را فراهم می‌سازد.
در این مدل:
عملیات نوشتن تنها به یک نود Leader ارسال می‌شود، Leader تغییرات را به نودهای Follower منتقل می‌کند، عملیات خواندن می‌تواند توسط هر یک از نودهای Leader یا Follower انجام شود.
هدف اصلی این روش افزایش ظرفیت Read و بهبود کارایی سامانه در مواجهه با تعداد زیاد درخواست‌های خواندن است.

۳) استراتژی Caching (افزایش سرعت با ذخیره‌سازی موقت)
استفاده از Cache، از تکرار درخواست‌های غیرضروری به پایگاه داده جلوگیری می‌کند.
در این رویکرد، نخستین درخواست داده را از پایگاه داده دریافت کرده و نتیجه آن در Cache ذخیره می‌شود.
درخواست‌های بعدی، در صورت وجود داده در Cache، به‌سرعت پاسخ داده می‌شوند.
این روش علاوه بر کاهش بار پایگاه داده، به‌طور چشمگیری سرعت پاسخ‌گویی را نیز افزایش می‌دهد.

۴) استراتژی Partitioning / Sharding (مقیاس‌پذیری افقی برای مدیریت بار نوشتن)
استراتژی Sharding با تقسیم داده به بخش‌های مستقل (Partitions یا Shards) و توزیع آن‌ها در چندین سرور، امکان افزایش ظرفیت‌پذیری عملیات نوشتن را فراهم می‌کند.
در این مدل:
هر شارد بخشی از داده را مدیریت می‌کند،
هر درخواست نوشتن تنها به شارد مربوطه ارسال می‌شود،
بار نوشتن میان چندین ماشین تقسیم می‌گردد.
این رویکرد برای سامانه‌هایی که حجم عملیات نوشتن آن‌ها بالا است، روشی پایدار و قابل اعتماد به حساب می‌آید.

ارتباط Replication و Sharding
در معماری‌های بزرگ، Sharding و Replication معمولاً به‌صورت ترکیبی مورد استفاده قرار می‌گیرند.
هر شارد روی چندین نود Replicate می‌شود تا در صورت خرابی یک نود، دسترس‌پذیری داده حفظ گردد.

جمع‌بندی
چهار روش Vertical Scaling، Replication، Caching و Sharding، ستون‌های اصلی مقیاس‌پذیری پایگاه داده در معماری‌های مدرن محسوب می‌شوند.
انتخاب مناسب میان این روش‌ها به نیازهای عملکردی، حجم داده، الگوی دسترسی و محدودیت‌های معماری هر سیستم بستگی دارد.
به‌کارگیری درست و ترکیبی این استراتژی‌ها، امکان ساخت سامانه‌هایی پایدار، سریع و قابل‌اتکا را فراهم می‌کند.


@ | <Amir Rahimi Nejad/>
1
Forwarded from Bardia & Erfan
♨️ با احترام به تمام پزشکان، امروز میخوام یه هوش مصنوعی پزشک معرفی کنم.

▪️همه ما ممکنه روزانه سوالات پزشکی رو در مورد علائم یا حال ناخوش خودمون یا اطرافیانمون داشته باشیم. چی میشد اگه یه هوش مصنوعی وجود داشت که به آخرین اطلاعات علم پزشکی هم دسترسی داشت و میشد ازش مشورت گرفت؟

👩‍⚕️داکوس در کنار شماست ؛)

▪️یک پلتفرم سلامت هوشمنده که از یه چت بات برای تولید گزارشهای سلامت شخصی‌سازی‌شده متناسب با هر فرد استفاده میکنه.
▪️کاربرها میتونن با چت بات گفتگو کنن و یه گزارش سلامت تولید کنن یا احتمال انواع ابتلا به بیماری رو شناسایی کنن. 

+ اینم بگم که شما فقط اجازه ارسال و دریافت تا 7 پیغام رو به صورت رایگان و روزانه دارید و برای ادامه استفاده باید اشتراک ماهانه تهیه کرد. 👇👇

▫️http://docus.ai
Forwarded from Bardia & Erfan
Media is too big
VIEW IN TELEGRAM
بلک‌فرایدی تبدیل شد به یک بازی کثیف؛ قیمت‌ها قبلش باد شد، امید کاذب ساختند، مردم رو ساعت‌ها پشت گوشی نگه داشتند که شاید «محصول ۲۰۰ میلیونی رو با ۹۰٪ تخفیف» بگیرن.

اینفلوئنسرهایی که با اعتماد همین مردم مشهور شدند، برای چندصد میلیون، هیزم آتیش فریب شدند.
فروشگاه‌هایی که به‌جای بازاریابی علمی، دروغ و تکنیک زرد رو انتخاب کردند.

نتیجه؟
نه «اعتبار برند» ساختید، نه «وفاداری مشتری»… فقط یک کوله‌بار نفرت روی دوش مردم گذاشتید.
اینا تخفیف نبود؛ یک توهین به شعور عمومی بود.
به امید روزی که هرجا چیزی «مفت» دیدیم، کورکورانه نپریم توش.

#بلک_فرایدی #فریب_تخفیف #تکنوکسب #بازاریابی #مردم #ایران
1👍1🔥1
🔵 عنوان مقاله
PostGIS Performance: Intersection Predicates and Overlays

🟢 خلاصه مقاله:
خلاصه‌ای از یک نوشته در ادامهٔ مجموعه‌ای برای بهبود کارایی PostGIS است که بر دو بخش کلیدی تمرکز دارد: «intersection predicates» مثل ST_Intersects، ST_Touches و ST_Contains و «overlay»ها مثل ST_Intersection و ST_Union. راهبرد اصلی این است: ابتدا با فیلتر سریع جعبه‌محیطی (&& روی ایندکس GiST) تعداد کاندیداها را کم کنید و سپس رابطهٔ دقیق را با GEOS بررسی کنید. برای پرس‌وجوهای معمول، ساده‌ترین predicate که نیازتان را پوشش می‌دهد انتخاب شود؛ از ST_Intersects برای joinهای اولیه استفاده و در صورت نیاز دقیق‌تر کنید. عملیات overlay چون هندسهٔ جدید می‌سازند، پرهزینه‌اند؛ فقط وقتی واقعاً خروجی هندسی لازم است سراغشان بروید و برای ادغام‌های بزرگ ST_UnaryUnion را ترجیح دهید. برای هندسه‌های حجیم از ST_Subdivide و در صورت امکان از کاهش جزئیات با ST_SimplifyPreserveTopology یا ST_SnapToGrid بهره ببرید. همچنین: ایندکس GiST بسازید، فیلترهای صفتی را زود اعمال کنید، از اعمال توابع روی ستون هندسی در WHERE که جلوی استفاده از ایندکس را می‌گیرد پرهیز کنید، و با EXPLAIN صحت استفاده از ایندکس و برآوردها را بررسی کنید. نتیجهٔ عملی: انتخاب predicate مناسب، اجتناب از overlay غیرضروری، و نگه‌داشتن هندسه‌ها و ایندکس‌ها در وضعیتی سازگار با برنامه‌ریز، کارایی پایدار PostgreSQL/PostGIS را تضمین می‌کند.

#PostGIS #PostgreSQL #GIS #GEOS #SpatialIndex #ST_Intersects #Geospatial #Performance

🟣لینک مقاله:
https://postgresweekly.com/link/177315/web


👑 @Database_Academy
Forwarded from AI Labdon
🤖 علاقه‌مند به دنیای هوش مصنوعی هستی؟

🏖 دنبال می‌کنی که چطور AI داره دنیا رو متحول می‌کنه؟

🍻پس جای درستی اومدی!

🎯 در کانال ما هر روز:

🔍 جدیدترین اخبار و دستاوردهای دنیای AI

🧠 تحلیل‌ تخصصی در حوزه یادگیری ماشین، دیپ لرنینگ و مدل‌های زبانی

💼 بررسی کاربردهای هوش مصنوعی در پزشکی، صنعت، آموزش، امنیت و اقتصاد

🛠 معرفی ابزارها، دوره‌ها و منابع یادگیری

📈 بررسی ترندها و آینده‌ فناوری‌های مرتبط با هوش مصنوعی

🍄همه‌ی این‌ها به زبان ساده، خلاصه و قابل فهم برای همه علاقه‌مندان — از مبتدی تا حرفه‌ای!
👇👇👇👇👇👇

https://www.tgoop.com/ai_labdon
🔵 عنوان مقاله
dbt's new Fusion Engine for smarter, cost-effective data ops (Sponsor)

🟢 خلاصه مقاله:
تیم‌های داده با یک گزینه سخت روبرو هستند: یا با سرعت بالا کار کنند و هزینه‌های ابری را به صورت چشمگیری افزایش دهند، یا هزینه‌ها را کنترل کنند و در کیفیت فداکاری نمایند. این مشکل همچنان یکی از چالش‌های اصلی در مدیریت داده‌ها است. اما خبر خوب این است که نرم‌افزار Fusion جدید شرکت dbt راه حلی هوشمندانه ارائه کرده است. این موتور با استفاده از ارکستراسیون مبتنی بر آگاهی از وضعیت، مدل‌ها و آزمایش‌های تغییر نکرده را به صورت خودکار نادیده می‌گیرد، و بدین ترتیب بهره‌وری تا ۲۹ درصد افزایش یافته است. این فناوری جدید قادر است کنترل هزینه‌ها را در حالی که تازه‌سازی داده‌ها حفظ می‌کند، توازن بخشد.

برای درک بهتر از قابلیت‌های Fusion، پیشنهاد می‌شود در جلسه زنده (۳ و ۴ دسامبر) شرکت کنید و مشاهده نمایید که چگونه این فناوری به شرکت‌هایی مانند Obie Insurance و Analytics8 کمک می‌کند تا خطوط لوله داده سریع‌تر و کارآمدتر عمل کنند و از هدر رفتن منابع جلوگیری کنند. این ابزار نوآورانه نشان می‌دهد که چگونه می‌توان بهره‌وری در عملیات داده را افزایش داد و هزینه‌ها را کنترل کرد، بدون اینکه کیفیت داده‌ها فدا شود.

#مدیریت_داده #هوشمندانه #کاهش_هزینه #Fusion

🟣لینک مقاله:
https://www.getdbt.com/resources/webinars/how-the-dbt-fusion-engine-optimizes-data-work/?utm_medium=paid-email&utm_source=tldr&utm_campaign=q4-2026_tldr-newsletters_cv&utm_content=_newsletter3___&utm_term=all_all__


👑 @Database_Academy
🔵 عنوان مقاله
an inaugural PostgreSQL Edinburgh meetup

🟢 خلاصه مقاله:
در تاریخ ۱۱ دسامبر، اولین نشست کاربران PostgreSQL در ادینبورگ، اسکاتلند، برگزار می‌شود. این رویداد فرصتی عالی برای توسعه‌دهندگان و علاقه‌مندان به پایگاه‌های داده است تا بتوانند در کنار هم درباره جدیدترین فناوری‌ها، بهترین رویه‌ها و تجارب خود بحث و تبادل نظر کنند. با حضور کارشناسان و متخصصان این حوزه، شرکت‌کنندگان می‌توانند از دانش و نکات عملی بهره‌مند شده و شبکه‌سازی مفیدی در فضای فناوری اطلاعات داشته باشند.

این نشست نخستین تجربه از نوع خود در این منطقه است و انتظار می‌رود جذابیت زیادی برای علاقه‌مندان به پایگاه داده‌های متن‌باز داشته باشد. به همه علاقه‌مندان پیشنهاد می‌شود که در این رویداد شرکت کنند و فرصت آشنایی عمیق‌تر با فناوری PostgreSQL و نکات کاربردی آن را از دست ندهند.

#PostgreSQL #ادینبورگ #فناوری_اطلاعات #پایگاه_داده

🟣لینک مقاله:
https://postgresweekly.com/link/177310/web


👑 @Database_Academy
🔵 عنوان مقاله
what was new with Azure Database for PostgreSQL

🟢 خلاصه مقاله:
در جدیدترین مقاله منتشر شده در خبرنامه هفتگی Golang، به بررسی قابلیت‌ها و امکانات تازه در سرویس Azure Database for PostgreSQL پرداخته شده است. این سرویس یکی از گزینه‌های محبوب برای توسعه‌دهندگان است که نیازمند یک پایگاه داده قدرتمند و مقیاس‌پذیر در قالب سرویس‌های ابری هستند.

در این مقاله، ابتدا به ویژگی‌های جدید در نسخه‌های اخیر Azure Database for PostgreSQL اشاره شده است؛ از جمله بهبودهای در عملکرد، امنیت، و امکانات مدیریت. این پیشرفت‌ها کمک می‌کنند تا توسعه‌دهندگان بتوانند با اطمینان بیشتری برنامه‌های خود را بر بستر Azure پیاده‌سازی کنند و بهره‌وری را افزایش دهند.

سپس، به ابزارهای جدید و به‌روزرسانی‌های رابط کاربری اشاره شده است که فرآیند راه‌اندازی، مانیتورینگ و نگهداری پایگاه داده را بسیار ساده‌تر کرده است. همچنین، امکانات مدیریت هزینه و مقیاس‌پذیری خودکار نیز از دیگر مزایای جدید این سرویس است که به کاربران امکان می‌دهد هزینه‌ها را کنترل کرده و عملکرد سیستم را بر اساس نیازهای لحظه‌ای تنظیم کنند.

در نهایت، مقاله بر اهمیت این به‌روزرسانی‌ها در تسهیل توسعه و عملیات اپلیکیشن‌های ابری تأکید کرده و توصیه می‌کند که توسعه‌دهندگان و مدیران موارد ذکر شده را حتماً مورد توجه قرار دهند تا بهره‌وری و امنیت پروژه‌های خود را افزایش دهند.

#Azure #PostgreSQL #سرویس_ابری #پایگاه_داده

🟣لینک مقاله:
https://postgresweekly.com/link/176985/web


👑 @Database_Academy
🔵 عنوان مقاله
Wrappers: A Foreign Data Wrapper Development Framework for Rust

🟢 خلاصه مقاله:
در این مقاله، ابتدا به معرفی یک چارچوب توسعه برای ساخت Wrapperهای داده خارجی (FDWs) در پایگاه‌داده پستگرس با زبان برنامه‌نویسی رست (Rust) پرداخته می‌شود. این چارچوب، ابزارهای مدرن و کارآمدی را در اختیار توسعه‌دهندگان قرار می‌دهد تا بتوانند به راحتی و با کارایی بالا، افزونه‌های جدیدی برای پستگرس ایجاد کنند. وابسته بودن به رست در این پروژه، امکان بهره‌گیری از مزایای سرعت، امنیت و استحکام این زبان برنامه‌نویسی را فراهم می‌کند.

در ادامه، مقاله به مجموعه‌ای گسترده از FDWs آماده اشاره می‌کند که با استفاده از این چارچوب توسعه یافته‌اند. این مجموعه، پوشش‌دهنده سیستم‌های مختلفی مانند Apache Iceberg، Clickhouse، BigQuery و AWS S3 است. هر یک از این Wrapperها، امکان دسترسی سریع و ساده به داده‌های ذخیره شده در پلتفرم‌های متنوع را فراهم می‌آورد و به توسعه‌دهندگان کمک می‌کند تا عملیات‌های پیچیده بر روی داده‌ها را به شکلی مؤثر و بومی انجام دهند. این پروژه نشان می‌دهد که چگونه ابزارهای متن‌باز می‌توانند کارایی و انعطاف‌پذیری را در مدیریت داده‌های بزرگ افزایش دهند و بی‌درنگ، کاربردهای گسترده‌تری در اکوسیستم‌های داده‌ای مدرن پیدا کنند.

#پستگرس #رست #دیٹاواپگر #فریمورک

🟣لینک مقاله:
https://postgresweekly.com/link/177682/web


👑 @Database_Academy
🔵 عنوان مقاله
Why Strong Consistency? (6 minute read)

🟢 خلاصه مقاله:
در دنیای فناوری، مفهوم سازگاری قوی همواره از اهمیت ویژه‌ای برخوردار است، زیرا تضمین می‌کند داده‌ها در تمامی نسخه‌های تکراری برابر و به‌روز باقی بمانند. در حالی که سازگاری نهایی یا eventual consistency در مواردی مانند تراکنش‌های نادر و با تأخیر کم، کارآمد است، اما در سرویس‌هایی که نیاز به قابلیت‌های بالای در دسترس بودن دارند، مشکلاتی ایجاد می‌کند. این نوع سازگاری نیازمند مسیرهای مسیریابی پیچیده، مدیریت خطا و آزمایش‌های فراوان است تا از ناهماهنگی داده‌ها جلوگیری شود.

شرکت‌های پیشرفته در حوزه دیتابیس، مانند اماور، با توسعه فناوری‌هایی همچون Aurora DSQL، توانسته‌اند این مشکل را حل کنند. این سامانه با ترکیب به‌روزرسانی‌های مونوتونیک در دفترچه‌های ثبت وقایع و جست‌وجوهای مبتنی بر زمان، تضمین می‌کند که تمامی نسخه‌های تکراری داده‌ها در حالت سازگاری قوی قرار داشته باشند. در این روش، نسخه‌های مختلف تنها منتظر می‌مانند تا تمام نوشتن‌های قبلی روی آن‌ها اعمال شود، و در نتیجه توسعه‌دهندگان می‌توانند راحت‌تر و بدون نیاز به قلاب‌های پیچیده سازگاری، برنامه‌های خود را بنویسند و اجرا کنند.

در نهایت، Aurora DSQL با این رویکرد، سطح اطمینان و یکپارچگی داده‌ها در سرویس‌های مبتنی بر دیتابیس را افزایش می‌دهد و تجربه کاربری بی‌نقصی را فراهم می‌آورد، در حالی که پیچیدگی‌های مدیریت سازگاری را به حداقل می‌رساند. این فناوری نشان می‌دهد چگونه می‌توان با رعایت تعادل میان سرعت و دقت، سرویس‌های قوی و قابل اعتماد ارائه داد.

#سازگاری_قوی #پایگاه_داده #Aurora #توسعه چاہ

🟣لینک مقاله:
https://brooker.co.za/blog/2025/11/18/consistency.html?utm_source=tldrdata


👑 @Database_Academy
🔵 عنوان مقاله
State, Scale, and Signals: Rethinking Orchestration with Durable Execution (52 minute podcast)

🟢 خلاصه مقاله:
در سال‌های اخیر، مفهوم اجرای مقاوم یا «دوره‌پذیری» در سیستم‌های توزیع‌شده اهمیت فزاینده‌ای یافته است. این رویکرد، باعث تغییر نگاه ما نسبت به مسئله قابلیت اطمینان در این نوع سیستم‌ها شده است. بر خلاف رویکردهای سنتی که اجرای عملیات‌ها را بر پایه اطمینان از صحت و کامل بودن هر عملیات بر عهده برنامه و توسعه‌دهنده می‌گذاشت، اجرای مقاوم این مسئولیت را به سطح پلتفرم و زیرساخت‌ها منتقل می‌کند. در این حالت، سیستم یا پلتفرم، عملیات‌ها را به گونه‌ای طراحی می‌کند که در صورت بروز خطا یا استثنا، بتواند به صورت خودکار عملیات را بازیابی و ادامه دهد، به گونه‌ای که اطمینان کلی سیستم حفظ شود.

این مفهوم باعث می‌شود تا توسعه‌دهندگان تمرکز کمتری بر مدیریت خطاهای جزئی داشته باشند و بیشتر بر روی منطق کسب‌وکار و عملکردهای کلیدی تمرکز کنند. اجرای مقاوم، سطحی از اطمینان را فراهم می‌کند که دیگر نیازی نیست هر بار نگرانی درباره صحت اجرای هر عملیات به صورت جداگانه وجود داشته باشد؛ زیرا سیستم به صورت خودکار خطاها را تشخیص و اصلاح می‌کند. این تحول، درک ما از طراحی و ارکستراسیون سیستم‌های توزیع‌شده را تغییر می‌دهد و اهمیت زیادی در ساخت سیستم‌های مقاوم و پویا دارد.

در نتیجه، رویکرد «اجرای مقاوم» به ما امکان می‌دهد تا سیستم‌های بزرگ، مقیاس‌پذیر و پایدارتر بسازیم، چرا که تضمین می‌کند عملیات حساس در لایه‌های پایین‌تر به صورت قابل اعتماد اجرا شوند و خطاهای احتمالی به صورت خودکار مدیریت شوند. این مفهوم جدید در زمینه سیستم‌های توزیع‌شده پلی است برای آینده‌ای با سیستم‌های مطمئن‌تر، مقاوم‌تر و کارآمدتر.

#سیستم‌های_توزیع_شده #پایدار_سازی #ارکستراسیون_سیستم #پلتفرم

🟣لینک مقاله:
https://www.dataengineeringpodcast.com/durable-execution-data-ai-orchestration-episode-489?utm_source=tldrdata


👑 @Database_Academy
1
🔵 عنوان مقاله
Super Fast Aggregations Coming to Postgres 19

🟢 خلاصه مقاله:
نسخه‌ی بعدی پستگرس، یعنی نسخه ۱۹، در راه است و هنوز ده ماه تا عرضه آن زمان باقی مانده است، اما اخیراً برخی از تغییرات اخیر نشان می‌دهد که کاربران می‌توانند منتظر انجام تجمع‌های بسیار سریع‌تر باشند، بدون نیاز به تغییر در نحوه نوشتن کوئری‌های خود. یکی از ویژگی‌های مهم این بهبود، تغییر در روش به‌کارگیری اجماع‌ها است. در نسخه‌های قبلی، فرآیند رایج این بود که ابتدا جدول‌ها را با عمل JOIN پیوند می‌دادید و سپس بر روی نتیجه، عملیات تجمع انجام می‌دادید. اما در نسخه ۱۹، به کمک بهبودهای جدید، به جای این روش، به optimizer اجازه داده می‌شود که در صورت مناسب بودن، ابتدا عملیات تجمع انجام شده و سپس عمل JOIN صورت گیرد. این تغییر می‌تواند به طور قابل‌توجهی سرعت اجرای کوئری‌ها را افزایش دهد و کارایی سیستم را بهتر کند.

این قابلیت جدید، برخلاف رویکرد رایج "از ابتدا JOIN، سپس تجمع"، طرحی انعطاف‌پذیرتر و بهینه‌تر است که بر اساس شرایط هر کوئری، بهترین روش را انتخاب می‌کند. این بهبود، به ویژه در مورد کوئری‌هایی که نیازمند عملیات دسته‌بندی و تجمیع داده‌های بزرگ هستند، تأثیر به سزایی دارد و می‌تواند زمان اجرای آن‌ها را به طور چشمگیری کاهش دهد.

در نتیجه، این تحولات نشان‌دهنده آینده‌ای روشن برای کاربرانی است که در پی بهبود سرعت و کارایی پایگاه داده‌های خود هستند. گرچه نسخه ۱۹ هنوز چند ماه دیگر فاصله دارد، اما پیشرفت‌های فعلی نویدبخش اصلاحاتی بزرگ در رفتار و عملکرد سیستم‌های پایگاه داده مبتنی بر پستگرس است.

#پایگاه_داده #پستگرس #بهبود_کارایی #توسعه_نظامی

🟣لینک مقاله:
https://postgresweekly.com/link/177659/web


👑 @Database_Academy
🔵 عنوان مقاله
What Are 'Dirty Pages' in Postgres?

🟢 خلاصه مقاله:
در سیستم‌های پایگاه داده مانند PostgreSQL، مفهوم «صفحات کثیف» یا "Dirty Pages" اهمیت ویژه‌ای دارد. این صفحات زمانی رخ می‌دهند که داده‌ها در حافظه موقت تغییر می‌کنند، اما این تغییرات هنوز به طور هم‌زمان در هارد دیسک ذخیره نشده است. در واقع، هنگامی که یک تراکنش در حال انجام است و تغییراتی در داده‌ها ایجاد می‌کند، این تغییرات ابتدا در فضای کش یا حافظه موقت ثبت می‌شوند تا پردازش سریع‌تر صورت گیرد. اما این تغییرات تا زمانی که به صورت رسمی در فایل‌های پایگاه داده نوشته نشوند، در حالت «کثیف» باقی می‌مانند.

وجود صفحات کثیف در حافظه نشان‌دهنده این است که سیستم پایگاه داده ما در حالت آستانه‌ای از به‌روزرسانی‌ها قرار دارد و نیاز است تا این صفحات در فرصت مناسب به دیسک انتقال یافته و ذخیره شوند. این انتقال معمولا توسط فرآیندی به نام «اجرای چرخه‌های نگهداری» یا Vacuum در PostgreSQL انجام می‌شود؛ فرآیندی که علاوه بر پاک‌سازی صفحات کثیف، باعث بهینه‌سازی عملکرد و جلوگیری از رشد بی‌رویه فایل‌های قدیمی می‌شود. بنابراین، مدیریت صحیح صفحات کثیف یکی از کلیدهای نگهداری کارآمد و مطمئن پایگاه داده است.

در نتیجه، درک مفهوم صفحات کثیف و فرآیندهای مربوط به آن‌ها، به مدیران پایگاه داده کمک می‌کند تا بهتر بتوانند عملکرد سیستم‌های خود را پایش و حفظ کنند، و همچنین در کاهش ریسک‌های مربوط به خطاهای تراکنشی و امکان بازیابی اطلاعات، موثر باشند.

#پایگاه_داده #PostgreSQL #مدیریت_داده #کاهش_خطا

🟣لینک مقاله:
https://postgresweekly.com/link/176687/web


👑 @Database_Academy
2025/12/02 02:03:26
Back to Top
HTML Embed Code: