Web Analytics Made Easy - Statcounter

به گزارش همشهری آنلاین به نقل از رویترز شرکت‌ها در سراسر جهان در حال بررسی برای بهترین استفاده از ChatGPT، برنامه چت‌باتی که از هوش مصنوعی(AI) مولد (generative) برای برقراری مکالمه با کاربران و پاسخ دادن به مجموعه‌ای از «پرامپت‌های» (یا پیام‌واره‌های) آنها استفاده می‌کند. اما شرکت‌های امنیت سایبری نگران هستند که چنین روندی می‌تواند به نقض مالکیت فکری و درز کردن راهبردهای تجاری شرکت‌ها بینجامد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

نمونه‌های موردی استفاده‌های افراد از چت‌جی‌پی‌تی کمک گرفتن برای انجام کارهای روزانه‌ای مانند آماده کردن پیش‌نویس ای‌میل‌ها، خلاصه کردن اسناد و انجام پژوهش‌های مقدماتی است.

حدود ۲۸ درصد از پاسخ‌دهندگان به نظرسنجی آنلاین رویترز-ایپسوس در مورد هوش مصنوعی در فاصله ۱۱ تا ۱۷ ژوئیه گفتند که به طور مرتب در محل کارشان از چت‌جی‌پی‌تی استفاده می‌کنند، و در مقابل فقط ۲۲ درصد آنها گفتند که مدیرانشان به طور واضح اجازه استفاده از چنین ابزارهای خارجی را به آنها داده‌اند.

این نظرسنجی که از ۲۶۳۶۵ نفر در سراسر آمریکا انجام شده است، «فاصله اعتبار» ؟(یک معیار دقت) حدود ۲ درصد داشته است.

حدود ۱۰ درصد افراد مورد پرسش قرار گرفته گفتند که روسایشان به طور صریح استفاده از ابرازهای خارجی هوش مصنوعی را برایشان ممنوع کرده‌اند، در حالیکه حدود ۲۵ درصد گفتند که نمی‌دانند آییا شرکتشان اجازه استفاده از این فناوری را به آنها داده است یا نه.

چت‌جی‌پی‌تی پس از ارائه‌شدنش در ماه نوامبر (آذر ماه گذشته) به یکی از اپلیکیشن‌های با سریع‌ترین رشد در تاریخ بدل شده است. این چت‌بات هم باعث ایجاد هیجان و هم اعلام هشدار شده است و سازنده آن شرکت«اوپن‌ای‌آی»  (OpenAI) را به خصوص در اروپا در تعارض با مقامات ناظر قرار داده است، چرا که گرداوری توده‌ای داده‌ها بوسیله این شرکت انتقاد سازمان‌های حامی حریم خصوصی را برانگیخته است.

بازبین‌های انسانی از سایر شرکت‌ها ممکن است هر کدام از چت‌های تولیدشده را بخوانند و پژهشگران دریافته‌اند که هوش مصنوعی با خصوصیات مشابه می‌تواند داده‌های جذب‌کرده در جریان تعلیم‌ش را بازتولید کند و به این ترتیب خطر افشای اطلاعات تجاری بوجود می‌آید.

شرکت OpenAI از پاسخ به این پرسش که پیامدهای استفاده کارمندان از چت‌جی‌پی‌تی چیست، خودداری کرده است، اما به یک پست اخیر وبلاگ این شرکت اشاره کرده است که به طرف‌های تجاری‌اش اطمینان می‌دهد داده‌هایشان برای آموزش دادن بیشتر این چت‌بات مورد استفاده قرار نخواهد گرفت، مگر اینکه اجازه صریحی در این مورد داده شده باشد.

هنگام استفاده از ابزار هوش مصنوعی شرکت گوگل، یعنی بارد (bard) نیز داده‌هایی مانند متن، محل و سایر اطلاعات کاربری گردآوری می‌شود. اما گوگل به کاربرانش اجازه می‌دهد فعالیت‌های گذشته‌شان را از حسابشان پاک کنند و تقاضا کنند که محتوای خورانده شده به AI حذف شود.

مایکروسافت تا به حال در این باره اظهارنظری نکرده است.

واکنش‌های متفاوت شرکت‌ها

شرکت‌های گوناگون واکنش‌های متفاوتی به این گرایش به استفاده از ابزارهای هوش مصنوعی بوسیله کارکنانش نشان داده‌اند. یکی از مدیران شرکت «تیندر» مستقر در آمریکا می‌گوید کارکنان از چت‌جی‌پی‌ت برای «کارهای بی‌ضرری» مانند نوشتن ای‌میل استفاده می‌کنند، گرچه این شرکت به طور رسمی اجازه این کار را نداده است.

شرکت سامسونگ نیز در ماه مه (اردیبهشت) پس از آنکه کشف کرد یکی از کارکناکش کدهای حساس را به این پلتفرم وارد کرده است، کارکنانش را در سراسر جهان از استفاده از چت‌جی‌پی‌تی و ابزارهای مشابه هوش مصنوعی ممنوع کرد

شرکت آلفابت صاحب گوگل نیز درباره چگونگی استفاده از چت‌بات‌هایی از جمله بارد که خود گوگل صاحب آن است، به کارکنانش هشدار داده است. گوگل گفته است که گرچه بارد ممکن است پیشنهادهای نامطلوبی در کدنویسی بدهد، به برنامه‌نویس‌ها کمک می‌کند.

برخی از شرکت‌های دیگر هم می‌گویند از چت‌جی‌پی‌تی و پلتفرم‌های مشابه استقبال می‌کنند، اما امنیت را هم در نظردارند.

کد خبر 779511 برچسب‌ها هوش‌ مصنوعی ایالات متحده آمریکا

منبع: همشهری آنلاین

کلیدواژه: هوش مصنوعی ایالات متحده آمریکا چت جی پی تی هوش مصنوعی داده ها شرکت ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.hamshahrionline.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «همشهری آنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۴۳۳۶۸۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

تحقیقات اتحادیه اروپا از متا بر سر کنترل اطلاعات غلط

رگولاتورهای اتحادیه اروپا قرار است تحقیقاتی را درباره عملکرد شرکت متا در مقابله با نشر اطلاعات غلط در پلتفرم‌های شبکه اجتماعی این شرکت، آغاز کنند.

به گزارش ایسنا، روزنامه فایننشیال تایمز به نقل از دو منبع آگاه نوشت: رگولاتورهای اروپایی گمان می‌کنند که مدیریت محتوای شرکت آمریکایی متا، برای متوقف کردن نشر تبلیغات سیاسی که فرآیندهای انتخاباتی را در معرض خطر تضعیف قرار می‌دهد، کافی نبوده است.

اما انتظار نمی‌رود کمیسیون اروپا در بیانیه خود، به روسیه اشاره کند و تنها به دستکاری اطلاعات توسط عوامل خارجی، اشاره خواهد کرد. شرکت متا و کمیسیون اروپا در این باره توضیحی ندادند.

پیش از این گزارش شده بود شرکت متا که مالک فیس‌بوک است، تیمی برای مقابله با نشر اطلاعات غلط و سوءاستفاده از هوش مصنوعی در آستانه انتخابات پارلمانی اتحادیه اروپا در ژوئن، تشکیل خواهد داد. مارکو پانچینی، مدیر امور اتحادیه اروپای متا در یک پست وبلاگ اعلام کرد تا نزدیک شدن به زمان انتخابات، ما مرکز فعالیت‌های انتخاباتی را برای شناسایی تهدیدهای احتمالی و خنثی کردن فوری آنها، فعال خواهیم کرد.

بر اساس گزارش رویترز، ده‌ها کشور در سراسر جهان از جمله انگلیس، اتریش و گرجستان، رهبران جدیدی را در سال ۲۰۲۴ انتخاب می‌کنند. انتخابات‌های پارلمان اروپا هم در ژوئن برگزار می‌شود. اما نگرانی‌هایی نسبت به مداخله در انتخابات و انتشار محتوای گمراه‌کننده با کمک هوش مصنوعی،‌ وجود دارد.

رشد سریع هوش مصنوعی مولد که می‌تواند متن، تصاویر و ویدئو را در چند ثانیه تولید کند، این واهمه را ایجاد کرده که فناوری جدید ممکن است امسال، برای مختل شدن انتخابات در سراسر جهان مورد استفاده قرار گیرد.

انتهای پیام

دیگر خبرها

  • سامسونگ در فصل اول ۲۰۲۴ به‌لطف هوش مصنوعی، سود خود را ۱۰ برابر کرد
  • استخراج الماس از گل صدتومانی + عکس
  • ویژگی جدیدی که به ChatGPT اضافه شد | روبات هوش مصنوعی به چه چیزی مجهز شد؟
  • اپل کارمندان هوش مصنوعی گوگل را دزدید
  • تحقیقات اتحادیه اروپا از متا بر سر کنترل اطلاعات غلط
  • قیمت نیسان آبی در سال ۱۴۰۳
  • ChatGPT در تشخیص آبسه مغزی شکست خورد
  • ادامه حمایت دانشگاهیان استان از خیزش دانشجویان در آمریکا و اروپا
  • ببینید | ممنونیم! دانشگاه های آمریکا، صدای شما به غزه رسیده است
  • هوش مصنوعی ChatGPT دادگاهی می‌شود!