Notice: file_put_contents(): Write of 23912 bytes failed with errno=28 No space left on device in /var/www/tgoop/post.php on line 50
🔷 مبارزه با نظم نوین جهانی 🔷@AntiBioterrorism100 P.11803
ANTIBIOTERRORISM100 Telegram 11803
🔷 مبارزه با نظم نوین جهانی 🔷
♨️ نگرانی از فناوری تشخیص چهره / نه دلیل که باید نگران این فناوری باشید (1) ✍️فناوری تشخیص چهره به سرعت در حال گسترش است. نرم افزاری که با مقایسه تصاویر چهره انسان با یک پایگاه داده از سوابق کل جامعه، افراد را شناسایی می کند و قطعا دنیای آینده ما را نیز تغییر…
♨️ نگرانی از فناوری تشخیص چهره / نه دلیل که باید نگران این فناوری باشید (2)

5️⃣ این تکنولوژی رضایت مندی شهروندان را کاهش می دهد
در مورد چگونگی استفاده از فناوری تشخیص چهره در واقع اطلاعات دقیق و خاصی وجود ندارد. این بدان معنی است که به عموم مردم فرصتی داده نمی شود که با ضبط، تجزیه و تحلیل و ذخیره تصاویر خود در پایگاه داده موافقت داشته باشند. به همین دلیل با محروم کردن شهروندان از رضایت عمومی در زندگی، آنها را از انتخاب و کنترل استفاده از تصاویر خود محروم می کنیم.

6️⃣ اشتباهات گسترده در محاسبات
مطالعات متعدد نشان داده است که الگوریتم های آموزش داده شده بر روی مجموعه داده های این فناوری با اشتباهات گسترده روبرو است و در نتیجه افراد رنگین پوست، به ویژه زنان رنگین پوست را اشتباه شناسایی می کند. چنین الگوریتمی به ویژه اگر منجر به دستگیری های غیرقانونی شود، یا اگر سازمان های دولتی و شرکت های خصوصی را به تبعیض علیه زنان و مردم از نژاد اقلیت سوق دهد، به شدت نگران کننده خواهد بود.

7️⃣ افزایش سوبرداشت های مغرضانه
افرادی که از نرم افزار تشخیص چهره استفاده می کنند به اشتباه اعتقاد دارند که این فناوری بدون خطا است و این موضوع می تواند منجر به تصمیمات نادرست در سیستم ها و سازمان های نظارتی شود. کاملا واضح است که نتایج تولید شده توسط ماشین ها و فناوری های با چنین نواقصی نباید نحوه رفتار آژانس های دولتی یا شرکت های خصوصی با افراد را تعیین کند. بر اساس یک اصل کاملا منطقی اپراتورهای آموزش دیده انسانی باید کنترل معنی داری بر این تکنولوژی داشته باشند و براساس قانون تصمیم بگیرند.

8️⃣ سو استفاده توسط گروه های مخفی دولتی
پایگاه های داده ای که حاوی تصاویر چهره ما هستند باید زنگ هشدار را به صدا درآورند. این موضوع حاکی از آن است که شرکت های خصوصی و آژانس های اجرای قانون تصاویر ما را برای ساختن لیست های مظنونین احتمالی بدون اطلاع و رضایت ما می توانند این اطلاعات را به اشتراک بگذارند. این تهدیدی جدی برای حقوق فردی و آزادی های مدنی ما است. امنیت این پایگاه های داده و آسیب پذیری آنها در برابر عملکرد هکرها نیز باعث نگرانی مضاعف خواهد شد. نگرانی از فناوری تشخیص چهره در چنین موضوعاتی بیشتر شبیه فیلم ها هیجانی و هالیوودی می شود اما باید این اخطار را به شما بدهیم که در واقعیت این کار در حال انجام است و نظارت شدیدی در آینده بر رفتار شما اعمال خواهد شد.

9️⃣ سو استفاده از تکنولوژی تشخیص چهره علیه اقشار ضعیف
برای نظارت بر جرایم احتمالی که در سطح شهرها رخ می دهد می توان از فناوری تشخیص چهره استفاده کرد. اما همچنین این فناوری می تواند به صورت انتخابی و با نیت های دیگر نیز به کار گرفته شود. به عنوان مثال برای شناسایی مهاجران و پناهندگان و یا حتی برای سرکوب کردن جناح های سیاسی دیگر. همچنین دولت هایی که به نقض آشکارحقوق اقلیت ها در کشورشان متهم هستند می توانند از این فناوری برای سرکوب بیشتر این اقلیت ها استفاده کنند.

بحث شدیداً مورد نیاز
با نگرانی های فراوان در مورد فناوری تشخیص چهره ، ما به شدت به گفتگوی برجسته تری در مورد تأثیر این فناوری بر حقوق و آزادی های مدنی نیاز داریم. بدون تنظیم صحیح این سیستم ها، ما می توانیم دولت های پلیسی را در کشورهای مختلف دنیا ایجاد کنیم که در نهایت به از دست رفتن آزادی های اجتماعی و تشکیل دولت های سرکوب گر منتهی می شود. فاشیسم با این تکنولوژی یک قدم به جامعه جهانی نزدیک تر می شود. منبع
👍12😱31



tgoop.com/AntiBioterrorism100/11803
Create:
Last Update:

♨️ نگرانی از فناوری تشخیص چهره / نه دلیل که باید نگران این فناوری باشید (2)

5️⃣ این تکنولوژی رضایت مندی شهروندان را کاهش می دهد
در مورد چگونگی استفاده از فناوری تشخیص چهره در واقع اطلاعات دقیق و خاصی وجود ندارد. این بدان معنی است که به عموم مردم فرصتی داده نمی شود که با ضبط، تجزیه و تحلیل و ذخیره تصاویر خود در پایگاه داده موافقت داشته باشند. به همین دلیل با محروم کردن شهروندان از رضایت عمومی در زندگی، آنها را از انتخاب و کنترل استفاده از تصاویر خود محروم می کنیم.

6️⃣ اشتباهات گسترده در محاسبات
مطالعات متعدد نشان داده است که الگوریتم های آموزش داده شده بر روی مجموعه داده های این فناوری با اشتباهات گسترده روبرو است و در نتیجه افراد رنگین پوست، به ویژه زنان رنگین پوست را اشتباه شناسایی می کند. چنین الگوریتمی به ویژه اگر منجر به دستگیری های غیرقانونی شود، یا اگر سازمان های دولتی و شرکت های خصوصی را به تبعیض علیه زنان و مردم از نژاد اقلیت سوق دهد، به شدت نگران کننده خواهد بود.

7️⃣ افزایش سوبرداشت های مغرضانه
افرادی که از نرم افزار تشخیص چهره استفاده می کنند به اشتباه اعتقاد دارند که این فناوری بدون خطا است و این موضوع می تواند منجر به تصمیمات نادرست در سیستم ها و سازمان های نظارتی شود. کاملا واضح است که نتایج تولید شده توسط ماشین ها و فناوری های با چنین نواقصی نباید نحوه رفتار آژانس های دولتی یا شرکت های خصوصی با افراد را تعیین کند. بر اساس یک اصل کاملا منطقی اپراتورهای آموزش دیده انسانی باید کنترل معنی داری بر این تکنولوژی داشته باشند و براساس قانون تصمیم بگیرند.

8️⃣ سو استفاده توسط گروه های مخفی دولتی
پایگاه های داده ای که حاوی تصاویر چهره ما هستند باید زنگ هشدار را به صدا درآورند. این موضوع حاکی از آن است که شرکت های خصوصی و آژانس های اجرای قانون تصاویر ما را برای ساختن لیست های مظنونین احتمالی بدون اطلاع و رضایت ما می توانند این اطلاعات را به اشتراک بگذارند. این تهدیدی جدی برای حقوق فردی و آزادی های مدنی ما است. امنیت این پایگاه های داده و آسیب پذیری آنها در برابر عملکرد هکرها نیز باعث نگرانی مضاعف خواهد شد. نگرانی از فناوری تشخیص چهره در چنین موضوعاتی بیشتر شبیه فیلم ها هیجانی و هالیوودی می شود اما باید این اخطار را به شما بدهیم که در واقعیت این کار در حال انجام است و نظارت شدیدی در آینده بر رفتار شما اعمال خواهد شد.

9️⃣ سو استفاده از تکنولوژی تشخیص چهره علیه اقشار ضعیف
برای نظارت بر جرایم احتمالی که در سطح شهرها رخ می دهد می توان از فناوری تشخیص چهره استفاده کرد. اما همچنین این فناوری می تواند به صورت انتخابی و با نیت های دیگر نیز به کار گرفته شود. به عنوان مثال برای شناسایی مهاجران و پناهندگان و یا حتی برای سرکوب کردن جناح های سیاسی دیگر. همچنین دولت هایی که به نقض آشکارحقوق اقلیت ها در کشورشان متهم هستند می توانند از این فناوری برای سرکوب بیشتر این اقلیت ها استفاده کنند.

بحث شدیداً مورد نیاز
با نگرانی های فراوان در مورد فناوری تشخیص چهره ، ما به شدت به گفتگوی برجسته تری در مورد تأثیر این فناوری بر حقوق و آزادی های مدنی نیاز داریم. بدون تنظیم صحیح این سیستم ها، ما می توانیم دولت های پلیسی را در کشورهای مختلف دنیا ایجاد کنیم که در نهایت به از دست رفتن آزادی های اجتماعی و تشکیل دولت های سرکوب گر منتهی می شود. فاشیسم با این تکنولوژی یک قدم به جامعه جهانی نزدیک تر می شود. منبع

BY 🔷 مبارزه با نظم نوین جهانی 🔷




Share with your friend now:
tgoop.com/AntiBioterrorism100/11803

View MORE
Open in Telegram


Telegram News

Date: |

The main design elements of your Telegram channel include a name, bio (brief description), and avatar. Your bio should be: The creator of the channel becomes its administrator by default. If you need help managing your channel, you can add more administrators from your subscriber base. You can provide each admin with limited or full rights to manage the channel. For example, you can allow an administrator to publish and edit content while withholding the right to add new subscribers. 5Telegram Channel avatar size/dimensions Earlier, crypto enthusiasts had created a self-described “meme app” dubbed “gm” app wherein users would greet each other with “gm” or “good morning” messages. However, in September 2021, the gm app was down after a hacker reportedly gained access to the user data. So far, more than a dozen different members have contributed to the group, posting voice notes of themselves screaming, yelling, groaning, and wailing in various pitches and rhythms.
from us


Telegram 🔷 مبارزه با نظم نوین جهانی 🔷
FROM American