به گفته دو پژوهشگر، هک کردن چت جی پی تی بسیار ساده است و میتوان آن را برای رسیدن به مقاصد خطرناک تحت کنترل درآورد.
۱۴۲ مطلب
به گفته دو پژوهشگر، هک کردن چت جی پی تی بسیار ساده است و میتوان آن را برای رسیدن به مقاصد خطرناک تحت کنترل درآورد.
استاد دانشگاه کلن پس از غیر فعال کردن گزینه «رضایت دادهها» در چتجیپیتی، دو سال کار علمی شامل درخواستهای کمکهزینه، ویرایش مقالهها و سخنرانیها را از دست داد؛ تجربهای که هشدار جدی برای دانشمندان درباره اتکا کامل به هوش مصنوعی محسوب میشود.
آزمایشهای گاردین نشان میدهد که مدل GPT-5.2 اوپنایآی، هنگام پاسخ به موضوعات بحثبرانگیز مانند ایران و هولوکاست، به دایرةالمعارف هوش مصنوعی xAI ایلان ماسک استناد کرده است، اقدامی که اعتبار «پیشرفتهترین مدل حرفهای» این شرکت را زیر سؤال میبرد.
متخصصان هشدار میدهند، «چتجیپیتی هلث» میتواند پاسخهای پزشکی سریع و شخصی ارائه دهد، اما تکیه صرف بر آن بدون مراجعه به پزشک میتواند خطرناک باشد و حتی پیامدهای جدی در دنیای واقعی به دنبال داشته باشد.
شرکت اوپنایآی قصد دارد حالت تشخیص سن را برای حسابهای کاربری فعال کند.
مدیر ارشد سلامت دیجیتال در «مرکز سلامت نیوهیون ییل» گفت: چتجیپیتی هلث و سایر مدلهای هوش مصنوعی مولد میتوانند در پاسخ دادن به پرسشهای پزشکی اولیه مانند فهرست کردن علائم بالقوه و پیشبینی آنچه ممکن است هنگام مراجعه به پزشک رخ دهد، کمک کنند.
یک روز پس از برقراری مجدد دسترسی به گوگل، برخی کاربران ایرانی از آزاد شدن دسترسی به هوش مصنوعی چینی «دیپسیک» خبر میدهند؛ در حالی که سرویس آمریکایی «چتجیپیتی» همچنان برای بسیاری از کاربران غیرقابل دسترس است.
چتجیپیتی ممکن است بهزودی تبلیغاتی براساس آن چه در گفتگو با این هوش مصنوعی به آن اشاره کردهاید، ارائه دهد.
پروندهای تازه، OpenAI را در معرض اتهام قرار داده است؛ خانواده قربانیان ادعا میکنند نسخه GPT-4o چتبات ChatGPT با تشدید هذیانهای روانی کاربران، منجر به خودکشی و قتل شده است و اکنون مسئولیت حقوقی این شرکت و مایکروسافت زیر ذرهبین قرار دارد.
نسخههای جدید چتجیپیتی بیش از یک ابزار پاسخدهی، به «آینه شناختی» تبدیل شدهاند؛ آینهای که شیوه فکر کردن، سوگیریها و نقاط کور ذهن ما را بازتاب میدهد و ما را به نسخه دقیقتر و آگاهتر خودمان نزدیک میکند.