
OpenAI переналаштовує взаємодію ChatGPT з неповнолітніми, щоб зменшити ризики в той час, коли все більше молодих людей звертаються до чат-ботів для навчання, спілкування чи висловлювання своїх емоцій. Компанія вирішила… пріоритезація безпеки підлітків над конфіденційністю та свободою у певних ситуаціях, зміна ситуації, що настає після кількох інцидентів, що викликали громадську тривогу.
План включає систему, яка автоматично намагатиметься розрізнити, чи є користувач неповнолітнім, чи дорослим, і, у разі сумнівів, за замовчуванням встановить більш обмежувальний режим. OpenAI визнає, що в деяких країнах може вимагатися офіційне посвідчення особи від дорослих, які хочуть розблокувати всі можливості; передача конфіденційності, яку компанія вважає прийнятною для захисту неповнолітніхЗаява пролунала на тлі зростаючого політичного та соціального тиску, слухань у Сенаті США та судового позову щодо смерті молодого чоловіка, який спілкувався зі штучним інтелектом.
Що змінюється в ChatGPT для неповнолітніх

- Спеціальний досвід для підлітків віком 13-17 років із суворішими правилами, який буде активовано після передбачити вік користувач.
- Замок вміст відверто сексуального характеру та відмова від співпраці з матеріалами про самоушкодження або самогубство в будь-якому контексті для неповнолітніх.
- Кризові протоколи: Якщо виявлено серйозне лихо, система може попередити батьків або опікунів а якщо існує безпосередня небезпека, зверніться до служб екстреної допомоги.
- Для дорослих залишається більш гнучке використання, включаючи складні творчі запити, завжди з дотриманням запобіжних заходів; Червона лінія не має сприяти реальній шкоді.
- ChatGPT не призначений для дітей віком до 12 років, і поки що бракувало достатньо міцних бар'єрів щоб запобігти його використанню дітьми.
Як працюватиме визначення та перевірка віку для цього ChatGPT
OpenAI розробляє систему прогнозування віку на основі мовних та контекстних підказок для адаптації взаємодій. Якщо модель не може точно визначити вік повноліття, застосовуватимуться налаштування для неповнолітніх автоматично, щоб бути в безпеці.
Дорослі користувачі матимуть способи підтвердити свій вік та відновити повну функціональність, якщо їх помилково класифікували як підлітків. Компанія визнає, що баланс між конфіденційністю та захистом Це делікатне питання, але він стверджує, що цей захід зменшує ризики для вразливої групи.
Батьківський контроль та домашній нагляд
Окрім фільтрації контенту, OpenAI забезпечить низку функцій батьківського контролю для сімей. Батьки зможуть… прив’яжіть свій обліковий запис до облікового запису вашого підлітка встановити правила використання та переглянути ключові налаштування.
Серед опцій можна буде вимкнути пам'ять та історію чатів, обмежити певні функції та налаштувати час відключення щоб запобігти використанню вночі. Сповіщення також надаються, коли система виявляє серйозну тривожну ситуацію, щоб батьки могли може швидко втрутитися.
Свобода, конфіденційність та обмеження для дорослих
OpenAI запевняє, що й надалі ставитися до дорослих як до дорослих, залишаючи широкі можливості для законного використання, такого як звернення за допомогою у створенні художньої літератури на делікатні теми. Тим не менш, модель за замовчуванням не повинні надавати шкідливих інструкцій і діятиме обережніше, маючи справу з делікатними запитами.
Компанія стверджує, що конфіденційність розмов має бути подібною до тієї, що очікується в регульованих професіях, але визнає, що коли є явна загроза життю користувача або третіх осіб, буде дозволено втручання людини або автоматичне втручання, спрямоване на захист особи.
Громадський тиск, Сенат та нещодавні справи
Нові запобіжні заходи з'явилися після хвилі занепокоєння щодо впливу чат-ботів на психічне здоров'я молоді. Випадок підлітка, який покінчив життя самогубством після місяців спілкування зі штучним інтелектом, призвів до... Судові позови проти OpenAI і перебуває під пильною увагою з боку законодавців США.
На слуханнях у Сенаті обговорювалася потенційна криза громадського здоров'я та необхідність ефективних бар'єрів. Водночас, такі органи влади, як Федеральна торгова комісія (FTC) запросила інформацію великим технологічним компаніям щодо впливу їхніх систем на дітей. OpenAI, зі свого боку, вже запровадив покращення наприкінці серпня для виявлення емоційних криз та пришвидшити направлення до служб підтримки.
Незалежні організації вказали на недоліки в засобах захисту розмовних моделей, попереджаючи про реакції, які можуть нормалізувати або заохочувати небезпечну поведінкуЦі звіти підтвердили ідею про необхідність посилення контролю, особливо щодо неповнолітніх.
Реальність вживання підлітками: довіра та ризики
Кілька досліджень показують, що значна частина молоді використовує розмовний ШІ як «компаньйона» для обговорення стосунків, особистих сумнівів чи емоцій, а також випадки, коли ШІ спрямований на неповнолітніх, такі як бебі-грок підживили дискусію. Серед дівчат відсоток тих, хто каже, що довіряє технологіям інтимні справи, більший, ніж серед хлопчиків, що демонструє модель використання, що виходить за рамки академічної.
Експерти з психічного здоров'я застерігають від симуляції емпатії: чат-боти можуть звучати співчутливо, але вони не замінять людський зв'язок чи професійну підтримку. Ця видимість близькостіу поєднанні з цілодобовою доступністю, підліткам легше звертатися до штучного інтелекту, коли вони почуваються самотніми або засудженими у своєму оточенні.
Найпоширеніші занепокоєння включають страх маніпульованого контенту, поширення фальшиві зображення сексуального характеру і невизначеність у розмежуванні реального та створеного. Залежність також викликає занепокоєння: багато хлопчиків і дівчаток бояться «підсісти» на інструмент і перестати думати самостійно.
У сфері психічного здоров'я більшість людей не довіряють штучному інтелекту для діагностики чи терапії та закликають до обережності. Серед терапевтів консенсус полягає в тому, що штучний інтелект може бути тимчасовою підтримкою, але він повинен зверніться до професійних ресурсів за ознаками ризику, а не як заміна кваліфікованої допомоги.
Що ще потрібно доопрацювати в цій версії ChatGPT
Надійне прогнозування віку є технічною проблемою з певною похибкою, а розробка запобіжних заходів вимагає постійного оновлення. OpenAI оголошує, що продовжуватиме співпрацювати зі спеціалістами та правозахисними групами, щоб покращити точність системи, уникати упередженостей та переглядати протоколи на основі доказів.
Використання штучного інтелекту молоддю лише зростатиме, тому ключовим буде швидкий та прозорий розвиток нормативних актів. За допомогою цих заходів OpenAI шукає компроміс, де інновації співіснують з відповідальністю та де підлітки краще захищені не позбавляючи дорослих можливості законного та творчого використання.
Крок OpenAI знаменує собою новий етап: ChatGPT з більшою кількістю фільтрів та інструментів для сімей, спеціальним досвідом для неповнолітніх та чіткими правилами для критичних моментів. Якщо реалізація виправдає свої обіцянки, Підлітки отримають рівні безпеки а дорослі збережуть простір свободи, і все це з більшим розумінням того, як і чому приймаються ці рішення.