Трохи більше року тому ми публікуємо Ось у LXA стаття про галюцинації Штучний інтелект. Вони становлять небезпеку, якщо ми розуміємо це як втрачений час або те, що ми можемо залишитися з неправдивою інформацією. Коли ми запитуємо їх про те, що вони не можуть швидко отримати з бази даних, вони можуть відповісти будь-що, і це не покращило мене в 2025 році, який ми вже глибоко пережили.
Останнім часом він став популярним DeepSeek, штучний інтелект, який приходить до нас із Китаю та може запропонувати результати, подібні до результатів ChatGPT, або навіть покращити їх. Але найкращий з цих AI виходить, якщо ми активуємо параметри думати глибше, причина або як вони це називають у розглянутій моделі. Інакше всі вони, як правило, зазнають невдачі в одній і тій же справі: швидко реагують незалежно від того, правильно вони говорять чи ні.
Нові галюцинації штучного інтелекту
Час від часу я проводжу деякий час, граючи з Моя Steam Deck. Нещодавно я закінчив базову гру Borderlands The Presequel, і я не зовсім зрозумів кінцівку (спойлер): Ліліт б’є Красивого Джека... звідки взялася Ліліт? Я запитав ChatGPT, і навіть не пам’ятаю, що він мені сказав. Якщо я пригадую, то я, вибачте за надмірність, згадав сам, що переслідував нашого гравця, використовуючи його невидимість. Потім я продовжила: «Красунчик Джек мав петлі на обличчі, і він не міг сказати мені, що це маска».
Але найгірше було, коли я запитав його, куди мені піти, щоб пограти в доповнення Claptrap Voyage. Що ти бачиш тут, що ти бачиш там, що… Шукаючи в Інтернеті, я дізнався, що мені потрібно піти на поверх 13/2 або щось в цьому роді (зараз не пам’ятаю назви), те, що ми можемо зробити з швидкої поїздки.
Щоб мати більше підстав для цієї статті, я подумав запитати ChatGPT про те саме, але з міркуваннями, те, що я також зробив у DeepSeek. DeepSeek зробив це правильно з першої спроби, тоді як ChatGPT дав мені два варіанти: один правильний, а інший заперечує наявність розширення в The Presequel, пов’язаного з Claptrap. Я вибрав цей варіант, щоб перевірити, чи це виправить… але ні.
Хочете точності?
ChatGPT зараз є найпопулярнішим і ним користується більшість людей. Якщо ми хочемо, щоб він міркував, нам доведеться зіткнутися з двома проблемами: перша полягає в тому, що потрібно 20-40 секунд, щоб почати пропонувати відповідь, а друга полягає в тому, що вільне міркування можливе лише кілька разів на день; Коли обмеження перевищено, вони більше не працюють, і ми змушені використовувати платну модель. Крім того, DeepSeek Він завжди може міркувати, але інколи застрягає і не працює.
Тому або платимо, або чекаємо, або нам пощастить.
Незважаючи на це, галюцинації щодо штучного інтелекту все ще є розпорядком дня, і я думаю, що варто пам’ятати про це, щоб ніхто не сприймав інформацію, яку вони нам надають, як належне.
А якщо шукати?
Що може бути корисним, так це не дозволити моделі за замовчуванням відповідати нам. Це той, хто найбільше зазнає невдач, найбільше «cuñao», тобто той, хто відповідає найбільше заради відповіді, знає він відповідь чи ні. Ці моделі дають відповіді про те, чого вони навчилися, і якщо вони цього не навчилися, вони намагаються вирішити наші сумніви, створюючи стосунки, які зазвичай не дають хороших результатів. Усе зміниться, якщо ми натиснемо кнопки пошуку або аргументації.
Якщо ми попросимо його обшукати, він це зробить. Він проаналізує те, що знайде, і покаже нам результат, який ми можемо побачити як підсумок пошуку, який ми зробимо. Можливість міркувати не дасть вам сказати першу нісенітницю, яка спадає на думку, хоча іноді ChatGPT викликає причини, щоб погіршити ситуацію.
Штучний інтелект продовжує вдосконалюватися, але якщо ми не будемо використовувати його належним чином, він продовжуватиме більше заплутувати нас, ніж допомагати.