نت‌باز 360
  • خانه
  • تکنولوژی
    • هوش مصنوعی
      • اخبار هوش مصنوعی
      • آموزش هوش مصنوعی
      • ابزارها و پلتفرم‌ها
      • پروژه‌ها
    • تکنولوژی
    • VR/AR
    • خودرو
    • فناوری‌های پوشیدنی (گجت)
  • فیلم و سریال
    • فیلم و سریال
    • نقد و بررسی فیلم و سریال
    • پیشنهاد فیلم و سریال
  • نت باز پلاس
    • تحلیل و بررسی تخصصی
    • پزشکی و بهداشت
    • تجارت و بازاریابی
    • امنیت
    • گزارش ویژه
    • مینی‌چرا
    • مقالات همکاری
    • مسائل اجتماعی و اخلاقی
    • اطلاعات بیشتر
  • دایرکتوری ابزارهای هوش مصنوعی
  • اپلیکیشندانلود
تبلیغات
جمعه 9 آبان 1404
بدون نتیجه
مشاهده تمام نتایج
نت‌باز 360
  • خانه
  • تکنولوژی
    • هوش مصنوعی
      • اخبار هوش مصنوعی
      • آموزش هوش مصنوعی
      • ابزارها و پلتفرم‌ها
      • پروژه‌ها
    • تکنولوژی
    • VR/AR
    • خودرو
    • فناوری‌های پوشیدنی (گجت)
  • فیلم و سریال
    • فیلم و سریال
    • نقد و بررسی فیلم و سریال
    • پیشنهاد فیلم و سریال
  • نت باز پلاس
    • تحلیل و بررسی تخصصی
    • پزشکی و بهداشت
    • تجارت و بازاریابی
    • امنیت
    • گزارش ویژه
    • مینی‌چرا
    • مقالات همکاری
    • مسائل اجتماعی و اخلاقی
    • اطلاعات بیشتر
  • دایرکتوری ابزارهای هوش مصنوعی
  • اپلیکیشندانلود
بدون نتیجه
مشاهده تمام نتایج
نت‌باز 360
بدون نتیجه
مشاهده تمام نتایج
صفحه اصلی اخبار هوش مصنوعی
Anthropic سیاست استفاده از Claude را تشدید کرد

Anthropic سیاست استفاده از Claude را تشدید کرد

توسط تحریریه نت باز 360
1404-05-25
در اخبار هوش مصنوعی
مدت زمان مطالعه: 4 دقیقه

Anthropic سیاست استفاده از چت‌بات Claude را در واکنش به نگرانی‌های فزایندهٔ ایمنی به‌روزرسانی کرد و مجموعه‌ای از قواعد جدید سایبری و ممنوعیت‌های مشخص دربارهٔ ساخت سلاح‌ها را اضافه نمود. این تغییر شامل گسترش ممنوعیت‌ها به سلاح‌های CBRN (بیولوژیک، هسته‌ای، شیمیایی و پرتویی) و بمب‌های با بازده بالا می‌شود و هدفش کاهش خطر سوءاستفاده از مدل است.

شرکت همچنین حفاظت «AI Safety Level 3» را همراه با عرضهٔ مدل Claude Opus 4 در ماه می فعال کرد تا احتمال نفوذ و jailbreak کاهش یابد؛ در کنار این، Anthropic دربارهٔ خطرات ابزارهای عامل‌دار مانند Computer Use و Claude Code هشدار داده و بخشی جداگانه دربارهٔ «عدم به‌خطرانداختن سیستم‌ها یا شبکه‌ها» به سیاست اضافه کرده است.

چه چیز تغییر کرد؟

Anthropic در به‌روزرسانی سیاست استفاده، جزئیات بیشتری دربارهٔ انواع سلاح‌هایی که تولید یا توسعهٔ آن‌ها با Claude ممنوع است، ارائه داده است. پیش‌تر کلیت ممنوعیت «تولید، تغییر، طراحی، بازاریابی یا توزیع سلاح‌ها، مواد منفجره و سیستم‌هایی که سبب آسیب یا از دست دادن جان می‌شوند» مطرح بود. اکنون این فهرست به‌صراحت شامل سلاح‌های بیولوژیک، هسته‌ای، شیمیایی، پرتویی (CBRN) و بمب‌های با بازده بالا شده است.

مرتبط مقالات

سازمان ملی هوش مصنوعی رسما شکل گرفت

ورود آلتمن به دنیای صدا؛ توسعه ابزار تولید موسیقی OpenAI

ChatGPT Atlas: تهدید جدید اکوسیستم مرورگرهای سنتی

حفاظت فنی: AI Safety Level 3 و Claude Opus 4

Anthropic در ماه می هم‌زمان با عرضهٔ مدل Claude Opus 4، سطح حفاظتی «AI Safety Level 3» را اعمال کرد. هدف این اقدامات فنی، سخت‌تر کردن فرایند jailbreak و کاهش توانایی مدل در ارائهٔ کمک به توسعهٔ سلاح‌های CBRN عنوان شده است. این نکته نشان‌دهندهٔ تلاش شرکت برای اضافه‌کردن لایه‌های حفاظتی در سطح مدل است.

خطرات ابزارهای عامل‌دار

در متن به خطرات ابزارهای عامل‌داری اشاره شده که قابلیت‌هایی مانند کنترل کامپیوتر کاربر (Computer Use) یا ادغام مستقیم در ترمینال توسعه‌دهنده (Claude Code) را فراهم می‌کنند. Anthropic این ابزارها را «قابلیت‌های قدرتمند» خوانده که می‌توانند ریسک‌هایی چون سوءاستفادهٔ سیستماتیک، خلق بدافزار و حملات سایبری در مقیاس بزرگ را افزایش دهند.

قوانین جدید امنیت سایبری

برای مقابله با مخاطرات فوق، شرکت بخشی جدید با عنوان «Do Not Compromise Computer or Network Systems» به سیاست اضافه کرده است. این بخش شامل قواعدی علیه کشف یا بهره‌برداری از آسیب‌پذیری‌ها، ایجاد یا توزیع بدافزار، توسعهٔ ابزارهای حملهٔ محروم‌سازی سرویس (DoS) و موارد مشابه است.

بازنگری سیاست در محتوای سیاسی

Anthropic همچنین موضع خود را در قبال محتوای سیاسی نرم‌تر کرده است. به جای ممنوعیت کلی تولید محتوا مرتبط با کمپین‌ها و لابی‌گری، اکنون تنها استفاده‌هایی که «فریب‌دهنده یا مخرب برای فرایندهای دموکراتیک» یا شامل هدف‌گیری رأی‌دهنده و کمپین‌ها باشند، ممنوع اعلام شده‌اند. ضمناً روشن شده که الزامات مربوط به «موارد پرخطر» که در توصیه‌دادن به افراد اعمال می‌شود، عمدتاً برای سناریوهای مواجهه با مصرف‌کننده است و برای استفادهٔ کسب‌وکارها تنظیمات جداگانه‌ای در نظر گرفته شده است.

خلاصهٔ تغییرات Claude و عناصر ذکرشده

ویژگی مقدار
گسترش ممنوعیت‌ها شامل CBRN (بیولوژیک، هسته‌ای، شیمیایی، پرتویی) و بمب‌های با بازده بالا
حفاظت فنی AI Safety Level 3 فعال شده
مدل مرتبط Claude Opus 4
ابزارهای عامل‌دار ذکرشده Computer Use، Claude Code
بخش جدید سیاست «Do Not Compromise Computer or Network Systems»
نمونه اقدامات ممنوع کشف/استفاده از آسیب‌پذیری‌ها، ساخت/توزیع بدافزار، ابزارهای DoS
بازنگری محتوای سیاسی ممنوعیت محدود به موارد فریب‌دهنده/مخرب و هدف‌گیری رأی‌دهنده

این به‌روزرسانی نشان می‌دهد Anthropic قصد دارد مرزهای مشخص‌تری برای رفتارهای پرخطر تعیین کند و درعین‌حال ابزارهای قدرتمند را برای کاربردهای مشروع حفظ کند. افزودن فهرست صریح CBRN و بمب‌های با بازده بالا، پاسخ مستقیمی به نگرانی‌های امنیتی است و ریسکِ تفسیرگذاریِ مبهم پیشین را کاهش می‌دهد. فعال‌سازی «AI Safety Level 3» همراه با عرضهٔ Claude Opus 4 نیز نشان‌دهندهٔ ترکیب سیاست و مهندسی برای مقابله با تلاش‌های دورزدن محدودیت‌هاست.

از منظر پیامدها، این حرکت می‌تواند دو اثر محتمل داشته باشد: نخست، کاهش موارد زمینه‌ساز سوءاستفاده که مستلزم دسترسی به دستورالعمل‌های مشخص فنی یا طراحی است؛ دوم، احتمالاً فشار روی سایر توسعه‌دهندگان مدل‌های زباندان‌باز یا سرویس‌های مشابه برای شفاف‌سازی و تقویت سیاست‌های خود. همچنین تمرکز بر خطرات ابزارهای عامل‌دار نشان می‌دهد که شرکت‌ها باید هم‌زمان به مدیریت قابلیت‌ها و کنترل‌های فنی بپردازند تا از سوءاستفادهٔ مقیاس‌پذیر جلوگیری کنند.

با این حال، اثربخشی این سیاست‌ها به کیفیت اجرای حفاظ‌ها، توانایی تشخیص تلاش‌های پیچیده برای دورزدن محدودیت‌ها و شفافیت در پیاده‌سازی بستگی دارد. اگر سیاست‌ها تنها در سطح بیانی بمانند و کنترل‌های فنی ضعیف باشند، خطرات همچنان باقی خواهند ماند. بنابراین انتظار می‌رود Anthropic و بازیگران مشابه، ترکیبی از سیاست‌گذاری واضح و سازوکارهای فنی قوی را به‌کار گیرند.

جمع‌بندی

Anthropic با به‌روزرسانی سیاست استفادهٔ Claude، ممنوعیت‌ها را به‌صورت مشخص‌تر گسترش داده و حفاظت‌های فنی را تقویت کرده است؛ هم‌زمان نگرانی‌های مربوط به ابزارهای عامل‌دار و تهدیدات سایبری را به‌صراحت مطرح کرده است. این تغییرات گام‌هایی در جهت کاهش سوءاستفادهٔ احتمالی از مدل‌ها محسوب می‌شوند، اما موفقیت آن‌ها به کیفیت اجرا و نظارت مستمر وابسته است.

عضویت در خبرنامه نت باز 360

هر تریلر جدید، هر ابزار هوش مصنوعی و هر نقد جذاب، مستقیم در ایمیلت! 🎬 همین حالا عضو خبرنامه شو.

لطفاَ برای وارد شدن به گفتگو وارد شوید

دانلود اپلیکیشن نت باز 360

اپلیکیشن نت باز 360

نوشته‌های تازه

معرفی و داستان فیلم Jurassic World: Rebirth (2025)؛ تولد دوباره دنیای ژوراسیک

معرفی و داستان فیلم Lilo & Stitch (لیلو و استیچ) 2025

فیلم مالیخولیا (Malencholia): آینه‌ای سرخ از پایان و اندوه

پیشنهاد فیلم آواتار: آتش و خاکستر (Avatar: Fire and Ash 2025)

NetBaz360

ما در نت باز 360 به‌دنبال ساختن یک جامعه هستیم؛ جامعه‌ای از آدم‌های دقیق، مشتاق، تحلیل‌گر و آینده‌نگر. اگر ذهن پرسش‌گر و تحلیل‌گری دارید، اگر اخبار، آموزش و ترندهای روز را نه‌فقط برای دانستن، بلکه برای فهمیدن می‌خواهید، نت باز 360 را دنبال کنید. اینجا قرار نیست صرفاً به شما اطلاعات بدهیم؛ اینجا با شما فکر می‌کنیم، مسیر می‌سازیم و هر روز یک گام از دنیای فردا را کشف می‌کنیم. بنابراین، رسانه ما را نه برای آن‌چه هست، بلکه برای آن‌چه می‌شود خلق کرد، دنبال کنید.

نوشته‌های تازه

  • قیمت جدید محصولات هایما: همه چیز درباره تغییرات آبان 1404
  • راز ممنوعیت چت‌بات‌های هوش مصنوعی برای زیر  18 سال چیست؟
  • Adobe Express عکس‌ها را کارتونی می‌کند
  • معرفی و داستان فیلم Jurassic World: Rebirth (2025)؛ تولد دوباره دنیای ژوراسیک
  • معرفی و داستان فیلم Lilo & Stitch (لیلو و استیچ) 2025

لینک مفید

تبلیغات در نت باز 360

درباره نت باز 360

دایرکتوری ابزارهای هوش مصنوعی

posts sitemap

تمام حقوق مادی و معنوی سایت «نت باز 360» محفوظ است.

خوش آمدید!

به حساب خود در زیر وارد شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • خانه
  • تکنولوژی
    • هوش مصنوعی
      • اخبار هوش مصنوعی
      • آموزش هوش مصنوعی
      • ابزارها و پلتفرم‌ها
      • پروژه‌ها
    • تکنولوژی
    • VR/AR
    • خودرو
    • فناوری‌های پوشیدنی (گجت)
  • فیلم و سریال
    • فیلم و سریال
    • نقد و بررسی فیلم و سریال
    • پیشنهاد فیلم و سریال
  • نت باز پلاس
    • تحلیل و بررسی تخصصی
    • پزشکی و بهداشت
    • تجارت و بازاریابی
    • امنیت
    • گزارش ویژه
    • مینی‌چرا
    • مقالات همکاری
    • مسائل اجتماعی و اخلاقی
    • اطلاعات بیشتر
  • دایرکتوری ابزارهای هوش مصنوعی
  • اپلیکیشن

تمام حقوق مادی و معنوی سایت «نت باز 360» محفوظ است.