Untitled-74578

گوگل مشتاق داده های بیشتر برای آموزش هوش مصنوعی خود است 

گوگل
گوگل مشتاق داده های بیشتر برای آموزش هوش مصنوعی خود است 

گوگل قصد دارد از محتوای ناشران وب برای پیشبرد سیستم های هوش مصنوعی خود لذت ببرد

طـرح گوگل در ارسال خود به مشاوره دولت استرالیا در مـورد تنظیم برنامه های کـاربردی هوش مصنوعی پرخطر فاش شد.

گوگل
گوگل

غول فناوری و جستجو پیشنهاد می‌کند که شرکت‌ها اگر نمی‌خواهند موادشان خراشیده شود، باید انصراف دهند همانطور که در حال حاضر برای

نمایه‌سازی موتورهای جستجو انجام می‌دهند.

منتقدان این مدل انصراف می‌گویند که این خط‌مشی قوانین حق نسخه‌برداری را اصلاح می‌کند که مسئولیت را بر دوش نهادهایی می‌گذارد

که به دنبال استفاده از مطالب دارای حق نسخه‌برداری هستند، نه خود دارندگان حق چاپ.

در حالی که استرالیا در حال بررسی ممنوعیت برخی استفاده‌های مشکل‌ساز هوش مصنوعی مانند اطلاعات نادرست و تبعیض است،

گوگل استدلال می‌کند که توسعه‌دهندگان هوش مصنوعی به دسترسی گسترده به داده‌ها نیاز دارند.

همانطور که توسط گاردین گزارش شده است، گوگل به سیاستگذاران استرالیایی گفته است که قانون کپی رایت باید امکان استفاده مناسب و منصفانه

از محتوای دارای حق چاپ را برای آموزش هوش مصنوعی فراهم کند.

این شرکت به خزنده محتوای استاندارد شده خود به نام robots.txt اشاره کرد که به ناشران اجازه می‌دهد بخش‌هایی از سایت‌های خود را مشخص

کنند که برای خزنده‌های وب بسته است.

گوگـل هیچ جزئیاتی در مورد نحوه عملکرد انصراف ارائه نکرد.

در یک پست وبلاگ، به طور مبهم به «استانداردها و پروتکل‌های» جدیدی اشاره کرد که به سازندگان وب اجازه می‌دهد سطح مشارکت هوش مصنوعی خود را انتخاب کنند.

او پس از انتشار چت ربات Bard AI خود در این کشور، از ماه می در استرالیا لابی کرده است تا قوانین کپی رایت را کاهش دهد.

با این حال، گوگل در جاه طلبی های داده کاوی خود تنها نیست.

OpenAI، خالق چت بات پیشرو ChatGPT، قصد دارد مجموعه داده آموزشی خود را با یک خزنده وب جدید به نام GPTBot گسترش دهد.

مانند Google، یک مدل انصراف را اتخاذ می کند که ناشران را ملزم می کند در صورتی که نمی خواهند محتوا حذف شود، قانون «عدم اجازه» را اضافه کنند.

این یک روش استاندارد برای بسیاری از شرکت‌های بزرگ فناوری است که به هوش مصنوعی (الگوریتم‌های یادگیری عمیق و یادگیری ماشین) برای

ترسیم سلیقه‌های کاربران خود و تشویق محتوا و تبلیغات برای مطابقت با یکدیگر متکی هستند.

این فشار برای داده های بیشتر با افزایش محبوبیت هوش مصنوعی انجام می شود.

قابلیت‌های سیستم‌هایی مانند ChatGPT و Google’s Bard به دریافت مجموعه‌های داده عظیم متن، تصویر و ویدیو متکی است.

به گفته OpenAI، “GPT-4 از منابع مختلف داده دارای مجوز، ایجاد شده و در دسترس عموم، که ممکن است شامل اطلاعات شخصی در دسترس عموم

باشد، آموخته است.

اما برخی از کارشناسان استدلال می کنند که خراش دادن وب بدون مجوز باعث ایجاد مشکلات کپی رایت و اخلاقی می شود.

ناشران مانند News Corp. در حال حاضر در حال مذاکره با شرکت های هوش مصنوعی هستند و به دنبال پرداخت برای استفاده از محتوای آنها هستند.

خبرگزاری فرانسه به تازگی نامه ای سرگشاده در مورد همین موضوع منتشر کرده است.

در این نامه آمده است:

هوش مصنوعی مولد و مدل‌های زبان بزرگ نیز اغلب با استفاده از محتوای رسانه‌ای اختصاصی آموزش داده می‌شوند که ناشران و سایرین زمان و منابع

زیادی را برای تولید آن سرمایه‌گذاری می‌کنند.

«چنین رویه‌هایی مدل‌های اصلی کسب‌وکار صنعت رسانه را تضعیف می‌کند، که بر خوانندگان و بینندگان (مانند اشتراک‌ها)، مجوزها و تبلیغات مبتنی است.

این آژانس رسانه‌ای افزود:

علاوه بر نقض قانون کپی‌رایت، تأثیر ناشی از آن کاهش معنی‌دار تنوع رسانه‌ها و تضعیف قابلیت مالی شرکت‌ها برای سرمایه‌گذاری در پوشش رسانه‌ای است

و دسترسی مردم به اطلاعات با کیفیت بالا و قابل اعتماد را کاهش می‌دهد

این بحث مظهر تنش بین پیشرفت هوش مصنوعی از طریق دسترسی نامحدود به داده ها در مقابل رعایت حقوق مالکیت است.

از یک طرف، هر چه محتوای بیشتر مصرف شود، این سیستم ها توانایی بیشتری پیدا می کنند.

اما این شرکت ها از کار دیگران نیز بدون اشتراک منافع سود می برند.

ایجاد تعادل مناسب آسان نخواهد بود. پیشنهاد Google اساساً به ناشران می‌گوید که کار خود را برای هوش مصنوعی ما تحویل دهند یا برای انصراف اقدام کنند.

برای ناشران کوچکتر با منابع یا دانش محدود، انصراف ممکن است چالش برانگیز باشد.

بررسی اخلاق هوش مصنوعی در استرالیا فرصتی برای شکل دادن بهتر نحوه تکامل این فناوری ها فراهم می کند.

 

و همچنین بخوانید :

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *