AD

ایجاد تصویر توسط هوش مصنوعی مانند انسان

0 90

ایجاد تصویر توسط هوش مصنوعی

متا پلتفرم (META.O) روز سه‌شنبه اعلام کرد که به محققان امکان دسترسی به مولفه های یک مدل جدید هوش مصنوعی «شبیه انسان» را می‌دهد که نسبت به مدل های موجود می‌تواند تصاویر ناتمام را با دقت بیشتری آنالیز و تکمیل کند.

این شرکت گفت که این مدل، I-JEPA، از دانش موجود در مورد جهان برای پرکردن تکه‌های از دست رفته تصاویر استفاده می‌کند، نه اینکه مانند سایر مدل‌های هوش مصنوعی مولد تنها به پیکسل‌های نزدیک نگاه کند.

این رویکرد شامل نوع استدلال انسان‌مانندی است که توسط دانشمند برجسته هوش مصنوعی متا، Yann LeCun، حمایت می‌شود و به این فناوری کمک می‌کند تا از خطاهایی که در تصاویر تولید شده توسط هوش مصنوعی رایج است، مانند دست‌هایی با انگشتان اضافی، جلوگیری کند.

متا که مالک فیس‌بوک و اینستاگرام است، یک ناشر پرکار تحقیقات open-sourced AI به واسطه آزمایشگاه تحقیقاتی داخلی خود است. مارک زاکربرگ، مدیر اجرایی، گفته است که به اشتراک گذاری مدل های توسعه یافته توسط محققان متا می تواند با تحریک نوآوری، شناسایی شکاف های ایمنی و کاهش هزینه ها به شرکت کمک کند.

او در ماه آوریل به سرمایه گذاران گفت: برای ما، بسیار بهتر است که صنعت، ابزارهای اساسی را که ما استفاده می کنیم استاندارد کند؛ بدین ترتیب بنابراین می توانیم از پیشرفت هایی که دیگران انجام می دهند، بهره مند شویم.

طراحی تصویر توسط هوش مصنوعی مثل انسان

مدیران این شرکت هشدارهای سایر افراد در صنعت در مورد خطرات احتمالی این فناوری را رد کرده‌اند و از امضای بیانیه‌ای در ماه گذشته با حمایت مدیران ارشد OpenAI، DeepMind، Microsoft (MSFT.O) و Google (GOOGL.O)  خودداری کردند.

Lecun  که یکی از “پدرخوانده های هوش مصنوعی” به حساب می آید، علیه ” AI doomerism” انتقاد کرده و به نفع ایجاد بررسی های ایمنی در سیستم های هوش مصنوعی اظهاراتی کرده است.

متا همچنین شروع به ترکیب ویژگی‌های هوش مصنوعی مولد در محصولات مصرفی خود کرده است، مانند ابزارهای تبلیغاتی که می‌توانند پس‌زمینه تصویر ایجاد کنند و یک محصول اینستاگرام که می‌تواند عکس‌های کاربر را اصلاح کند که هر دو این قابلیت ها بر اساس درخواست‌های متنی صورت می گیرد.

همچنین بخوانید: آیا ChatGPT امنیت دارد و می‌‌توان به این هوش مصنوعی محبوب اطمینان کرد

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.