اپل امسال در WWDC با دستی پر به میدان آمده و قصد دارد کاربران خود را با تحولی ملموس در تجربه مکالمههای روزمره شگفتزده کند: ترجمه زنده تماسها و پیامها با بهرهگیری از ایرپاد و هوش مصنوعی. این تنها بخشی از مجموعه قابلیتهایی است که «اپل اینتلیجنس» به دنیای محصولات اپل اضافه خواهد کرد؛ قابلیتی که نه فقط فناوری، بلکه مرزهای زبانی را در هم میشکند.
از Genmoji تا مکالمات چندزبانه
نشریه بلومبرگ و خبرنگار شناختهشدهاش، مارک گرمن، از برنامههای هیجانانگیز اپل برای WWDC امسال پرده برداشتهاند؛ برنامههایی که از ترجمه زنده تماسها با ایرپاد گرفته تا شخصیسازی خلاقانه اموجیها (Genmoji)، آیندهای تعاملیتر و هوشمندتر برای کاربران اپل ترسیم میکنند. با فراهم شدن دسترسی توسعهدهندگان به مدلهای بنیادین هوش مصنوعی اپل، مسیر جدیدی برای ادغام عمیقتر هوش مصنوعی در اکوسیستم iOS و macOS نیز در راه است.
اپل در مسیر یکپارچهسازی هوش مصنوعی در سراسر اکوسیستم
در گزارشی تازه از «مارک گرمن» روزنامهنگار باسابقه حوزه فناوری در نشریه بلومبرگ، آمده است که اپل در کنفرانس توسعهدهندگان WWDC امسال مجموعهای از قابلیتهای جدید مبتنی بر هوش مصنوعی را معرفی خواهد کرد. یکی از مهمترین این قابلیتها، ترجمه زنده تماسها و پیامهای متنی با استفاده از ایرپاد و فناوری Apple Intelligence است.
براساس این گزارش، این قابلیتها در سطح سیستمعاملهای مختلف اپل از جمله iOS، iPadOS و macOS ارائه خواهند شد و به کاربران این امکان را میدهند که تمام مکالمات صوتی و متنی خود را به زبان دلخواه ترجمه کنند. ترجمه مکالمات تلفنی از جمله کاربردهای اصلی این سیستم خواهد بود.
همچنین گفته شده که اپل در حال توسعه قابلیتی است که ایرپادهای این شرکت بتوانند زبان مکالمه را بهصورت خودکار تشخیص داده و آن را در لحظه ترجمه کنند؛ قابلیتی که پیشتر نیز در برخی گزارشهای افشاشده به آن اشاره شده بود.
در کنار این ویژگی شاخص، اپل قابلیتهای دیگری از Apple Intelligence را نیز به نمایش خواهد گذاشت؛ از جمله قابلیت جدید Genmoji که به کاربران اجازه میدهد با ترکیب اموجیهای مختلف، اموجیهای ترکیبی تازهای بسازند. مثلاً با ترکیب اموجی “توپ بسکتبال” و “سطل زباله”، میتوان اموجی جدیدی برای “انداختن توپ داخل سطل” ایجاد کرد.
از سوی دیگر، اپلیکیشن Shortcuts اپل نیز از این پس با بهرهگیری از هوش مصنوعی اپل، میتواند پیشنهادهایی هوشمندانهتر و دقیقتر برای ساخت میانبرهای کاربردی به کاربران ارائه دهد.
در نهایت، یک خبر بسیار مهم برای توسعهدهندگان: اپل دسترسی مستقیم آنها به مدلهای بنیادین هوش مصنوعی خود (Foundation Models) را نیز فراهم کرده است. این مجموعه از مدلها، پایهی بسیاری از قابلیتهای اپل اینتلیجنس را تشکیل میدهند و حالا توسعهدهندگان میتوانند به کمک آنها اپلیکیشنهایی مبتنی بر هوش مصنوعی برای محصولات اپل طراحی کنند.
اپل چگونه هوش مصنوعی را به خدمت تجربه کاربر درمیآورد؟
قابلیت ترجمه زنده تماسها با ایرپاد، در کنار توسعه Genmoji و هوشمندسازی بیشتر اپلیکیشن Shortcuts، نشانهای واضح از حرکت اپل بهسوی هوشمندسازی تعاملی تجربه کاربر است. برخلاف برخی شرکتها که هوش مصنوعی را بیشتر در قالبهای تخصصی یا بصری معرفی کردهاند، اپل تمرکز خود را بر ادغام هوش مصنوعی در فعالیتهای روزمره کاربران گذاشته است.
این ترجمه زنده – بهویژه در قالب تماسهای تلفنی – نهتنها کارکرد مسافران یا کاربران چندزبانه را متحول خواهد کرد، بلکه قدمی بزرگ در راستای ازمیانبرداشتن موانع زبانی در ارتباطات انسانی محسوب میشود.
از سوی دیگر، ترکیب اموجیها با قابلیتهای Genmoji یک لایه جدید از بیان شخصی را برای کاربران به ارمغان میآورد؛ ویژگیای که اپل همواره بر آن تاکید داشته است. دسترسی توسعهدهندگان به مدلهای بنیادین نیز، سیگنالی قوی برای بازتر شدن فضای نوآوری در اکوسیستم بسته اپل است.
جمعبندی
بررسی آنچه در WWDC پیشرو معرفی خواهد شد، نشان میدهد اپل بهجای عرضه الگوریتمهای خام و پیچیده، تمرکز را بر تجربه مستقیم و کاربردی کاربران گذاشته است. ترجمه زنده تماس و پیام با ایرپاد تنها بخشی از این رویکرد جدید است؛ رویکردی که سادگی، تعاملپذیری و غنای ارتباطات انسانی را هدف گرفته است.
با آزادسازی دسترسی به مدلهای هوش مصنوعی برای توسعهدهندگان و تلفیق آن با اجزای شناختهشدهای مانند Shortcuts و Genmoji، اپل یک اکوسیستم هوشمند و قابل توسعه خلق میکند که مرزهای فعلی فناوری را به چالش میکشد. WWDC امسال را باید نقطهای کلیدی در پختگی هوش مصنوعی اپل و ورود آن به متن زندگی کاربران دانست.