
ترامپ به آژانسهای فدرال دستور میدهد تا با تشدید اختلاف، استفاده از آنتروپیک را متوقف کنند
دونالد ترامپ، رئیسجمهور ایالات متحده گفت که او به هر آژانس فدرال دستور میدهد تا فوراً کار با آزمایشگاه هوش مصنوعی Anthropic را متوقف کند، و اضافه کرد که وزارت دفاع و سایر آژانسهایی که از محصولات این شرکت استفاده میکنند یک مرحله شش ماهه متوقف میشود.
"من به هر آژانس فدرال در دولت ایالات متحده دستور میدهم که فوراً از همه فنآوریها استفاده کنیم، ما از فناوری C استفاده میکنیم. آن را نمیخواهم و دیگر با آنها معامله نمیکنم!» ترامپ روز جمعه در پستی در Truth Social گفت.
داستان های توصیه شده
لیست 3 موردی- لیست 1 از 3دانشگاه هندی به دلیل ارائه ربات چینی به عنوان خود
فهرست رد 2 از 3 مورد با واکنش شدید مواجه شد. دست در اجلاس هوش مصنوعی هند - لیست 3 از 3انتروپیک در مقابل پنتاگون: چرا شرکت هوش مصنوعی دولت ترامپ را بر عهده می گیرد
دستورالعمل ترامپ در خلال یک نزاع چند هفته ای بین پنتاگون و ارتش در مورد چگونگی استفاده بیش از حد توسط AI در سانفرانسیسکو صادر شد. جنگ.
سخنگوی آنتروپیک که قراردادی 200 میلیون دلاری با پنتاگون دارد، فوراً به درخواست اظهارنظر پاسخ ندادند.
تصمیم ترامپ در مقابل تهدیدات صادر شده از سوی پنتاگون، از جمله اینکه میتواند قانون تولید دفاعی را برای الزام به انطباق آنتروپیک الزامی کند، اعلام کرد. که قبلاً کسبوکارهای مرتبط با دشمنان خارجی را هدف قرار میداد.
نظرات ترامپ درست بیش از یک ساعت قبل از ضربالاجل پنتاگون برای آنتروپیک برای اجازه استفاده نظامی نامحدود از فناوری هوش مصنوعی خود بیان شد یا با عواقب آن مواجه شد - و تقریباً 24 ساعت پس از آن که مدیر عامل داریو آمودی گفت که شرکت او "نمیتواند با وجدان راحت شرکت دفاعی را بپذیرد". رئیس جمهور گفت که آنتروپیک در تلاش برای مسلح کردن پنتاگون اشتباه کرد. ترامپ در Truth Social نوشت که بیشتر آژانسها باید فوراً استفاده از هوش مصنوعی آنتروپیک را متوقف کنند، اما به پنتاگون یک مهلت شش ماهه داد تا فناوریهایی را که در حال حاضر در پلتفرمهای نظامی تعبیه شده است، کنار بگذارد.
"ما به آن نیاز نداریم، ما آن را نمیخواهیم و دیگر با آنها تجارت نخواهیم کرد!" ترامپ نوشت.
مورد بحث در قرارداد دفاعی، درگیری بر سر نقش هوش مصنوعی در امنیت ملی بود. آنتروپیک گفته بود که به دنبال تضمین های محدودی از پنتاگون است که از کلود برای نظارت جمعی از آمریکایی ها یا در سلاح های کاملا خودمختار استفاده نخواهد شد. اما پس از اینکه ماهها گفتگوهای خصوصی به بحثهای عمومی تبدیل شد، در بیانیهای در روز پنجشنبه گفت که زبان قرارداد جدید «قالب سازش با قوانین قانونی همراه شد که اجازه میدهد تا آن پادمانها در صورت تمایل نادیده گرفته شوند». ترامپ هشدار داد که اگر آنتروپیک در دوره خروج تدریجی کمک نکند، از «قدرت کامل ریاستجمهوری برای وادار کردن آنها به اجرای قوانین و عواقب مدنی و کیفری بزرگ» استفاده خواهد کرد.
حرکت «تهدیدکننده»
این عقبنشینی زمانی رخ داد که رهبر هوش مصنوعی آنتروپیک برای برنده شدن در رقابت شدیدی رخ داد که فروش فناوری جدید به طور عمومی برای کسبوکارها و دولت مورد انتظار عمومی بود. این شرکت گفته است که تصمیم IPO را نهایی نکرده است.
Anthropic اولین آزمایشگاه هوش مصنوعی مرزی بود که مدلهای خود را از طریق ارائهدهنده ابری Amazon.com در شبکههای طبقهبندیشده قرار داد و اولین مدلی بود که مدلهای سفارشیسازی شده را برای مشتریان امنیت ملی ساخت.
محصول آن، Claude، در سراسر جامعه اطلاعاتی
«دستورالعمل رئیسجمهور برای توقف استفاده از یک شرکت پیشرو هوش مصنوعی آمریکایی در سراسر دولت فدرال، همراه با لفاظیهای تحریکآمیز در حمله به آن شرکت، نگرانیهای جدی در مورد اینکه آیا تصمیمات امنیت ملی ناشی از تحلیل دقیق یا ملاحظات سیاسی است، ایجاد میکند.»
2018. در آن سال، کارمندان گوگل آلفابت به استفاده پنتاگون از هوش مصنوعی این شرکت برای تجزیه و تحلیل تصاویر هواپیماهای بدون سرنشین اعتراض کردند و روابط بین سیلیکون ولی و واشنگتن را متشنج کرد. روابط نزدیکی با شرکتهایی از جمله آمازون و مایکروسافت برای تجارت دفاعی به راه افتاد و همچنان مدیران اجرایی بیشتری در سال گذشته با دولت ترامپ همکاری کردند.
این اختلاف توسعهدهندگان هوش مصنوعی را در دره سیلیکون متحیر کرد، جایی که تعداد فزایندهای از کارگران از رقبای اصلی Anthropic، OpenAI و Google، حمایت خود را از Amodei بیان کردند. در نامه سرگشاده برخی از کارکنان OpenAI و گوگل آمده است: در حال مذاکره با گوگل و OpenAI برای تلاش برای جلب رضایت آنها با آنچه Anthropic رد کرده است. «آنها با ترس از تسلیم شدن دیگری در تلاش هستند تا هر شرکتی را تقسیم کنند.»
و در اقدامی غافلگیرکننده از سوی یکی از سرسختترین رقبای Amodei، مدیر عامل OpenAI، سم آلتمن، روز جمعه با آنتروپیک طرف شد و در مصاحبهای با CNBC، حرکت «تهدیدکننده» پنتاگون را زیر سوال برد، و پیشنهاد کرد که همان خطوط قرمز OpenAI در زمینههای OpenAI مشترک است. آمودی قبل از اینکه او و سایر رهبران OpenAI در سال 2021 برای تشکیل آنتروپیک ترک کنند، یک بار برای OpenAI کار می کرد.
آلتمن به CNBC گفت: "با وجود تمام تفاوت هایی که با Anthropic دارم، بیشتر به آنها به عنوان یک شرکت اعتماد دارم و فکر می کنم آنها واقعاً به ایمنی اهمیت می دهند."
