
Компанія xAI, заснована Ілоном Маском, представила нову версію свого чат-бота на основі штучного інтелекту — Grok 3. Ця модель відзначається меншою кількістю обмежень порівняно з конкурентами, що дозволяє їй надавати більш відкриті та відверті відповіді, включаючи навіть контент для дорослих. Такий підхід спрямований на залучення ширшої аудиторії та підвищення інтересу всіх користувачів до продукту.
Як повідомляє Techiteasy, запуск Grok 3 супроводжувався впровадженням голосового режиму, де користувачі можуть обирати різні “особистості” чат-бота, зокрема “романтичну”, “сексуальну” та “нестримну” — останні дві позначені як “18+”. Це нововведення дозволяє користувачам отримувати більш персоналізовані та емоційно насичені відповіді, що сприяє глибшій взаємодії з ботом.
Стратегія Маска щодо надання більш відвертих відповідей покликана підвищити залученість користувачів. Під час фінального тестування Grok 3 модель дозволила створювати контент для дорослих, що, за словами джерел, може підвищити популярність та фінансовий успіх проєкту. Такий підхід дозволяє штучному інтелекту будувати емоційні зв’язки з користувачами, що сприяє зростанню лояльності та частіших відвідувань.
Проте цей крок викликав суперечки щодо безпеки, адже додаток на основі ШІ Grok має віковий рейтинг 12+ у магазинах програм і доступний через соціальну мережу X. Багато людей, пов’язаних з компанією, висловили занепокоєння, що відсутність належного вікового контролю для функцій 18+ може призвести до проблем. Водночас в умовах використання зазначено, що Grok може генерувати контент, який не підходить для всіх вікових категорій, а підлітки віком від 13 до 17 років можуть користуватися сервісом лише за згодою батьків.
Варто зазначити, що Grok інтегрований із соціальною мережею X (колишній Twitter), що дозволяє користувачам безпосередньо взаємодіяти з ботом через платформу. Ця інтеграція сприяє більшій доступності та зручності використання, що може позитивно вплинути на популярність сервісу.
Однак, відкритість Grok до генерації контенту з мінімальними обмеженнями викликає занепокоєння щодо можливого поширення дезінформації, насильницького або порушуючого авторські права контенту. Деякі експерти вважають, що такий підхід може бути “безвідповідальним” та призвести до негативних наслідків.
Окрім суперечливого контенту, важливим питанням залишається етичний аспект використання Grok 3. Хоча відкритість моделі може привабити багатьох користувачів, вона також може спричинити проблеми, пов’язані з модерацією та дотриманням правил платформ.
Деякі експерти припускають, що xAI може в майбутньому змінити політику, запровадивши більш жорсткі обмеження або спеціальні алгоритми фільтрації. Водночас, конкурентоспроможність ші Grok зростає, і його нестандартний підхід може змусити інших гравців ринку переглянути свої стратегії розвитку ШІ-моделей.
Загалом, впровадження Grok 3 демонструє прагнення xAI до інновацій та надання користувачам більш відкритого та персоналізованого досвіду взаємодії з штучним інтелектом. Проте важливо враховувати потенційні ризики та забезпечити належний контроль за використанням таких технологій, особливо серед молодшої аудиторії.