Охрана не уберегла мужа Глюкоzы

1875
На днях в одном из столичных рок-клубов супруг Наташи Ионовой (известна как Глюкоzа, Век) Александр Чистяков, будучи изрядно выпившим, оказался героем скандальной истории.

Пока супруга находится в декретном отпуске (Наташа Ионова улетела рожать в Испанию), Александр Чистяков (топ-менеджер РАО ЕЭС России) на днях попал в переделку. Он проводил время в гордом одиночестве в одном из московских рок-клубов. А как еще можно скоротать его? Разумеется, выпить чего-нибудь погорячее. В этом непростом искусстве главное - знать меру и вовремя остановиться. Увы, но г-н Чистяков выпил больше, чем полагается, и завязал драку с парнями, также коротавшими время в клубе. Из-за чего началась ссора, мы доподлинно не знаем, но домой Александр вернулся сильно избитым.

Как признались знакомые Чистякова, он даже не помнит, что и как с ним произошло. Нас смутил еще один факт! Не секрет, что каждый второй бизнесмен перемещается по городу в окружении охраны. У Александра тоже есть охрана, но вот почему-то в этот раз, в бойцовском клубе, в котором изрядно потрепали их босса, она отсутствовала. Единственное, что, право, не стоило делать Александру Чистякову, так это сообщать о случившемся супруге. А он это сделал. Весьма неосмотрительный шаг со стороны казалось бы заботливого мужа.

Впрочем, здесь есть некий нюанс. Рано или поздно Наташа узнала бы о том, что произошло с ее мужем Александром. И в этом ей наверняка помогли бы желтые таблоиды. Правда, как-то жаль Наташу, т.к. после рассказанного Александром она долго плакала. Предполагается, что в ближайшее время, залечив травмы, бизнесмен Александр Чистяков вылетит к Наташе в Испанию.

Реклама на веке
В день своего 65-летия Александр Масляков покинет КВН Электра дала показания

Искусственный интеллект прошел тест Тьюринга: люди больше не могут отличить ботов от человека

63
Искусственный интеллект прошел тест Тьюринга: люди больше не могут отличить ботов от человека
Фото: https://nypost.com/2025/04/04/tech/terrifying-study-reveals-ai-robots-have-passed-turing-test-and-are-now-indistinguishable-from-humans-scientists-say/
Ученые доказали: современный ИИ обманывает людей в 73% случаев, успешно проходя тест Тьюринга. GPT-4.5 и LLaMa-3 теперь неотличимы от человека в диалоге.

Согласно новому исследованию ученых из Калифорнийского университета в Сан-Диего, современные языковые модели искусственного интеллекта (ИИ) стали настолько совершенными, что люди уже не могут отличить их от реальных собеседников. GPT-4.5 и LLaMa-3 успешно прошли тест Тьюринга, обманув участников эксперимента в 73% и 56% случаев соответственно.

Что показало исследование?

В эксперименте приняли участие 284 человека — студенты и пользователи онлайн-платформы Prolific. Им предложили пообщаться в чате с двумя собеседниками: человеком и ИИ. После пяти минут диалога участники должны были определить, кто из партнеров по переписке был реальным.

Реклама на веке

Результаты оказались тревожными:

- GPT-4.5 с подсказкой «вести себя как человек» участники приняли за живого собеседника в 73% случаев.

- LLaMa-3.1 справился чуть хуже, но все же убедил людей в 56% диалогов.

- Более старые модели, такие как ELIZA и GPT-4o, не смогли обмануть участников, показав результат на уровне случайного угадывания.

Почему это важно?

Тест Тьюринга, разработанный в 1950 году британским ученым Аланом Тьюрингом, долгое время считался «золотым стандартом» для оценки интеллекта машин. Если ИИ может поддерживать беседу так, что человек не замечает подмены, значит, он достиг уровня, сравнимого с человеческим мышлением.

Однако авторы исследования отмечают, что успех ИИ связан не столько с его интеллектом, сколько с умением имитировать эмоции. Участники редко задавали сложные логические вопросы — вместо этого они оценивали стиль общения, эмоциональный отклик и естественность реплик.

Опасения экспертов

Психологи и специалисты по ИИ уже выразили обеспокоенность результатами эксперимента.

«Это не провал в обнаружении ИИ, а триумф искусственной эмпатии», — заявил Джон Носта, основатель аналитического центра Nosta Lab.

Действительно, если боты научились так точно копировать человеческое поведение, это открывает дорогу для новых видов мошенничества, манипуляций и социальной инженерии.

Что дальше?

Исследование еще не прошло рецензирование, но его результаты уже вызвали резонанс в научном сообществе. Вопросы, которые оно поднимает, выходят за рамки технологий:

- Как регулировать ИИ, если его нельзя отличить от человека?

- Какие этические нормы должны применяться к чат-ботам?

- Не приведет ли это к новым формам цифрового обмана?

Пока ответов нет, но ясно одно: граница между человеком и машиной становится все тоньше. И, возможно, в ближайшем будущем нам придется пересмотреть само понятие «искусственного интеллекта».

Реклама на веке
Секреты долголетия: 4 продукта, которые помогут дожить до 100 лет
Реклама на веке
Реклама на веке