Web Analytics Made Easy - Statcounter

مدیرعامل شرکت OpenAI که شرکتی پژوهشی در عرصه هوش مصنوعی است،، درباره آینده چت بات‌ها هشدار داد. خبرگزاری برنا- گروه علمی و فناوری؛ مدیرعامل شرکت OpenAI که شرکتی پژوهشی در عرصه هوش مصنوعی است،‌ طی مصاحبه رسانه‌ای درباره ChatGPT عنوان کرد: من از مشکلات مربوط به این فناوری اطلاع دارم و معتقدم این فناوری یک محصول وحشتناک است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

آلتمن ضمن اشاره به خطاهای چت بات ChatGPT اضافه کرد محصولی که امروز مردم از آن استفاده می‌کنند، گاهی عملکرد صحیحی دارد و برخی اوقات نیز اصلا کار نمی‌کند. آلتمن می گوید: مردم چیزی را تایپ می کنند و سعی دارند تا پاسخ سوال خود را بیابند، آنها دوباره جواب دریافتی را که هوش مصنوعی به آنها ارائه کرده است با نتایج جستجوی گوگل در موتور جستجو ادغام می کنند. چت بات ChatGPT بعد از رونمایی نگاه های زیادی را به خود معطوف کرده است ولی در عین حال چالش‌های مهمی در بخش‌هایی همچون آموزش و پرورش ایجاد به وجود آورده که سبب نگرانی‌هایی درباره آینده شده است از جمله اینکه دانشجویان به وسیله این فناوری بدون زحمت مقاله نوشته‌اند، در امتحانات نیز شرکت کرده‌اند.کدنویسی رایانه ای، نوشتن نامه و ... از جمله دیگر موارد کاربرد این فناوری است. فعلا این امکان به طور مستمر در دسترس نیست، در موارد بسیاری پیش می‌آید که خطای ظرفیت تکمیل برای کاربر به نمایش در می‌آید. انتهای پیام/

خبرگزاری برنا- گروه علمی و فناوری؛  مدیرعامل شرکت OpenAI که شرکتی پژوهشی در عرصه هوش مصنوعی است،‌ طی مصاحبه رسانه‌ای درباره ChatGPT عنوان کرد: من از مشکلات مربوط به این فناوری اطلاع دارم و معتقدم این فناوری یک محصول وحشتناک است.

آلتمن ضمن اشاره به خطاهای چت بات ChatGPT اضافه کرد محصولی که امروز مردم از آن استفاده می‌کنند، گاهی عملکرد صحیحی دارد و برخی اوقات نیز اصلا کار نمی‌کند.

آلتمن می گوید: مردم چیزی را تایپ می کنند و سعی دارند تا پاسخ سوال خود را بیابند، آنها دوباره جواب دریافتی را که هوش مصنوعی به آنها ارائه کرده است با نتایج جستجوی گوگل در موتور جستجو ادغام می کنند.

چت بات ChatGPT بعد از رونمایی نگاه های زیادی را به خود معطوف کرده است ولی در عین حال چالش‌های مهمی در بخش‌هایی همچون آموزش و پرورش ایجاد به وجود آورده که سبب نگرانی‌هایی درباره آینده شده است از جمله اینکه دانشجویان به وسیله این فناوری بدون زحمت  مقاله نوشته‌اند، در امتحانات نیز شرکت کرده‌اند.کدنویسی رایانه ای، نوشتن نامه و ... از جمله دیگر موارد کاربرد این فناوری است. 

فعلا این امکان به طور مستمر در دسترس نیست، در موارد بسیاری پیش می‌آید که خطای ظرفیت تکمیل برای کاربر به نمایش در می‌آید.

انتهای پیام/

آیا این خبر مفید بود؟

نتیجه بر اساس رای موافق و رای مخالف

منبع: خبرگزاری برنا

کلیدواژه: هوش مصنوعی دانشگاه امتحان مقاله تقلب دانلود مقاله چت بات تقلب در امتحان درباره آینده هوش مصنوعی چت بات ChatGPT

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.borna.news دریافت کرده‌است، لذا منبع این خبر، وبسایت «خبرگزاری برنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۱۳۵۱۱۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

وضع مقررات برای استفاده تسلیحاتی از هوش مصنوعی

به گزارش خبرگزاری علم و فناوری آنا به نقل از رویترز، اتریش خواستار تلاش‌های تازه‌ای برای تنظیم استفاده از هوش مصنوعی در سیستم‌های تسلیحاتی شد که می‌تواند به اصطلاح «ربات‌های قاتل» ایجاد کنند. این در حالی است که اتریش یک کنفرانس را برگزار کرده است که هدف آن احیای بحث‌های متوقف شده درباره استفاده تسلیحاتی از هوش مصنوعی بود.

با پیشرفت سریع فناوری هوش مصنوعی، سیستم‌های تسلیحاتی که می‌توانند بدون مداخله انسان کشتار کنند، به ما نزدیک‌تر می‌شوند و چالش‌های اخلاقی و قانونی را به وجود می‌آورند که اغلب کشور‌ها می‌گویند باید به زودی به آنها رسیدگی شود.

الکساندر شالنبرگ، وزیر امور خارجه اتریش در نشست سازمان‌های غیردولتی و بین المللی و همچنین نمایندگان ۱۴۳ کشور جهان گفت: ما نمی‌توانیم اجازه دهیم این لحظه بدون اقدام بگذرد. ​​اکنون زمان توافق بر سر قوانین و هنجار‌های بین المللی برای تضمین کنترل انسانی است.

وی در سخنرانی افتتاحیه کنفرانسی با عنوان «انسانیت بر سر دوراهی سیستم‌های تسلیحاتی خودمختار و چالش مقررات» گفت: حداقل اطمینان حاصل کنیم که عمیق‌ترین و گسترده‌ترین تصمیم درباره اینکه چه کسی زندگی می‌کند و چه کسی می‌میرد، در دست انسان‌ها باشد و نه ماشین‌ها.

سال‌ها بحث در سازمان ملل به نتایج ملموسی نرسیده است و بسیاری از شرکت‌کنندگان در کنفرانس دو روزه در وین گفتند که روزنه اقدام به سرعت در حال بسته شدن است.

میرجانا اسپولیاریک، رئیس کمیته بین المللی صلیب سرخ، در یک میزگرد در این کنفرانس گفت: عمل کردن و اقدام بسیار سریع بسیار مهم است.

او افزود: آنچه امروز در زمینه‌های مختلف خشونت می‌بینیم، شکست‌های اخلاقی در مواجهه با جامعه بین‌المللی است؛ و ما نمی‌خواهیم با سپردن مسئولیت کنترل خشونت، به ماشین‌ها و الگوریتم‌ها، چنین شکست‌هایی را تسریع کنیم.

هوش مصنوعی در حال حاضر در میدان جنگ استفاده می‌شود. دیپلمات‌ها می‌گویند هواپیما‌های بدون سرنشین در اوکراین طوری طراحی شده اند که وقتی فناوری پارازیت سیگنال ارتباط آنها را با اپراتورشان قطع می‌کند، راه خود را به سمت هدف خود بیابند.

آمریکا گفت که در حال بررسی گزارش مبنی بر استفاده ارتش رژیم صهیونیستی از هوش مصنوعی برای کمک به شناسایی اهداف بمباران در غزه است.

ژان تالین، برنامه‌نویس نرم‌افزار و سرمایه‌گذار فناوری، گفت: ما قبلاً دیده‌ایم که هوش مصنوعی اشتباهات انتخابی را به روش‌های بزرگ و کوچک انجام می‌دهد، از تشخیص نادرست سر طاس داور به‌عنوان توپ فوتبال گرفته تا مرگ عابران پیاده بر اثر عدم تشخیص خودروهای خودران.

انتهای پیام/

دیگر خبرها

  • دستیار هوشمند خانگی/ هوش مصنوعی چگونه به خانه‌داری کمک می‌کند؟
  • هشدار وقوع سیلاب در رودخانه‌های کردستان
  • ساندرا پیچای به باشگاه میلیاردی‌ها می‌پیوندد
  • ساندار پیچای در یک قدمی میلیاردر شدن
  • ویژگی جدیدی که به ChatGPT اضافه شد | روبات هوش مصنوعی به چه چیزی مجهز شد؟
  • وضع مقررات برای استفاده تسلیحاتی از هوش مصنوعی
  • ChatGPT در تشخیص آبسه مغزی شکست خورد
  • چین از مدل هوش مصنوعی تبدیل متن به ویدئو رونمایی کرد
  • هوش مصنوعی ChatGPT دادگاهی می‌شود!
  • توسعه حمل و نقل بر پایه هوش مصنوعی و اینترنت اشیا در کارخانه نوآوری آزادی