اخبار ارز دیجیتال

شرکت های رسانه ای در داخل و خارج از اتاق خبر روی هوش مصنوعی کار می کنند

شرکت‌های رسانه‌ای در تلاش هستند تا با ظهور سریع هوش مصنوعی همراه باشند، بسیاری از آنها استفاده داخلی آن را ممنوع کرده‌اند و برخی دیگر از آن استفاده می‌کنند.

بسیاری از شرکت‌های رسانه‌ای بزرگ علیه معرفی هوش مصنوعی (AI)، مانند ChatGPT در OpenAI، در اتاق‌های خبر موضع گرفته‌اند و اجازه نمی‌دهند که AI برای اسکن محتوا در وب باشد.

بر اساس گزارش‌ها، چندین شرکت رسانه‌ای اصلی، از جمله CNN، نیویورک تایمز و رویترز، پلتفرم‌های خود را کدگذاری کرده‌اند تا از دسترسی خزنده وب OpenAI GPTBot به محتوای آنها جلوگیری کنند.

این خزنده وب در ۸ آگوست با هدف بهبود بالقوه مدل‌های ChatGPT آینده با فهرست کردن محتوای وب‌سایت‌ها در سراسر وب منتشر شد.

علاوه بر این، گزارش سی‌ان‌ان مدعی شد که غول‌های خبری و رسانه‌ای دیگر از جمله دیزنی، بلومبرگ، واشنگتن پست، آتلانتیک، آکسیوس، اینسایدر، ABC نیوز و ESPN نیز همین کار را کرده‌اند. ناشران بزرگی مانند Condé Nast و Vox Media نیز روی هوش مصنوعی کار می کنند.

دانیل کافی، رئیس و مدیرعامل News Media Alliance به خبرنگاران CNN درباره هوش مصنوعی گفت.

“ما احساس فوریت فزاینده ای در مورد استفاده و سوء استفاده از محتوای خود داریم.”

توسعه دهندگان هوش مصنوعی در حال حاضر با شکایت هایی برای نقض حق چاپ در مورد مواد مورد استفاده برای آموزش مدل های خود مواجه هستند. در ۱۲ ژوئیه، گوگل به دلیل سیاست حفظ حریم خصوصی جدید خود در آن زمان برای حذف داده های هوش مصنوعی مورد شکایت قرار گرفت.

پیش از این، سارا سیلورمن نویسنده و دو نفر دیگر از متا و OpenAI به دلیل استفاده از کار او برای آموزش سیستم‌ها بدون رضایت مناسب شکایت کردند.

در ماه آوریل، مدیرعامل News Corp استرالیا ابتکار عمل را به دست گرفت و استدلال کرد که ChatGPT و سیستم‌های هوش مصنوعی مشابه باید برای اخبار مصرف‌شده هزینه بپردازند.

ممنوع کردن یا عدم ممنوعیت

شرکت های رسانه ای تنها کسانی نیستند که فعالانه چت ربات های هوش مصنوعی را در محل کار ممنوع می کنند یا سیستم ها را از دسترسی به محتوا منع می کنند.

غول‌های فناوری سامسونگ و اپل در ماه مه استفاده داخلی از چت ربات‌های هوش مصنوعی مانند ChatGPT را به دلیل نگرانی‌ها در مورد برون‌سپاری داده‌های داخلی حساس توسط مدل‌ها ممنوع کردند.

مربوط: آکادمیک بر سر ادعاهای ChatGPT مبنی بر تعصب سیاسی گرایش چپ به انشعاب افتاد

پیش از آن، تعدادی از شرکت های خدمات مالی از جمله جی پی مورگان، بانک آمریکا، گلدمن ساکس و سیتی گروپ نیز استفاده داخلی خود از ابزارهای مولد هوش مصنوعی را ممنوع کرده بودند.

در ۲۶ ژوئن، مجلس نمایندگان ایالات متحده قانونگذاران را از استفاده از همه ربات‌های چت هوش مصنوعی به جز ChatGPT Plus منع کرد و آن را با استناد به «ویژگی‌های مهم حریم خصوصی» که به محافظت از داده‌های حساس کمک می‌کند، ممنوع کرد.

رسانه هایی که از هوش مصنوعی استفاده می کنند – برای بهتر یا بدتر

در حالی که بسیاری نسبت به مزاحمت این فناوری محتاط هستند، برخی دیگر در حال تماشا و آزمایش آن هستند.

بر اساس یک آگهی شغلی در ماه ژوئیه که نقش‌های پردرآمد مرتبط با هوش مصنوعی را ارائه می‌کند، به نظر می‌رسد غول سرگرمی نتفلیکس در حال بررسی استفاده از هوش مصنوعی به شکلی است.

سایت رسانه ای BuzzFeed که اخیراً بخش خبری خود را تعطیل کرده و ۱۸۰ کارمند خود را اخراج کرده است، در تماس با درآمد سه ماهه اول خود گفت که “هوش مصنوعی می رود”.

یک نمونه از پذیرش ناموفق هوش مصنوعی در رسانه ها در ماه مه زمانی رخ داد که یک روزنامه روزانه ایرلندی مجبور شد به دلیل انتشار ناآگاهانه مقاله ای که توسط هوش مصنوعی تولید شده بود عذرخواهی کند. نویسنده مهمان مدعی شد که “عمداً فریب خورده” و تبدیل به یک انسان شده است، اما معلوم شد که یک هوش مصنوعی است.

هوش مصنوعی برای شرکت

این گزارش که در ۲۸ آگوست انجام شد، همچنین نشان داد که نگرانی‌ها به مصرف‌کنندگان سرایت کرده است و تقریباً سه چهارم در مورد استفاده غیراخلاقی شرکت‌ها از هوش مصنوعی نگران هستند.

این مدت کوتاهی پس از آن صورت می‌گیرد که OpenAI نسخه سازمانی چت ربات ChatGPT AI خود را منتشر کرد که چهار برابر قدرتمندتر از نسخه عمومی است. نسخه سازمانی ادعا می کند که دو برابر سریعتر از GPT-4 است و استانداردهای حریم خصوصی و امنیتی را افزایش داده است.

پیش از انتشار ربات چت سازمانی، کارشناسان بلاک چین و هوش مصنوعی آی‌بی‌ام گفتند که این مدل «خطرات قابل‌توجهی» برای استفاده تجاری دارد. اینها در درجه اول بر روی خطر به خطر افتادن داده های داخلی حساس تمرکز می کنند، که نگرانی اصلی بسیاری از شرکت های فوق الذکر بود که چت بات ها را ممنوع کرده اند.

مجله: آیا پرداخت باج افزار باید ممنوع شود؟ایده ای جذاب اما خطرناک

نویسنده: Savannah Fortis

به این مطلب چه امتیازی می‌دهید؟

میانگین امتیارها ۰ / ۵. مجموع آرا: ۰

دیدگاهتان را بنویسید

دکمه بازگشت به بالا