Русские хакеры напугали Джима Керри

2064
Известный актер Джим Керри («Брюс всемогущий», «Маска» и др.) решил удалить свою страницу из Facebook**. Данный шаг он объяснил тем, что социальная сеть «заработала на вмешательстве России» в президентские выборы в США.

Стоит отметить, что на удалении своего аккаунта в соцсети Керри решил не останавливаться, он также продал все имевшиеся у него акции Facebook*. «Я призываю всех инвесторов, которые беспокоятся о будущем, сделать то же», — написал он в Twitter. Отток финансов заставит соцсеть изменить политику лояльности, считает актер. К твиту прикреплен рисунок основателя Facebook Марка Цукерберга с подписью «Фейкбук».

В Госдуме действия комика Джима Керри, удалившего свой аккаунт из соцсети из-за России, расценили как несмешную шутку. Такое мнение высказал депутат Алексей Журавлев («Родина»).

«А если серьезно, то стоит напомнить некоторым американцам — выборы состоялись больше года назад, и народ Соединенных Штатов выбрал Дональда Трампа. Это называется демократия», — написал парламентарий в соцсети.

Реклама на веке

Напомним, в сентябре прошлого года Facebook сообщила о целенаправленном размещении политической рекламы из России в соцсети. По оценкам администрации Facebook, в то время как в США в самом разгаре была президентская кампания, российские боты закупали у данной соцсети рекламу с целью оказания влияния на исход голосования. Сообщалось, что просмотреть платные объявления могли до 20 млн. американцев.

В начале октября на рассмотрение Конгрессу было передано около 3 тыс. рекламных сообщений политического характера, якобы оплаченных из России за несколько месяцев до начала выборов. Facebook предоставил конгрессменам данные о сумме, потраченной на рекламу, а также параметрах ее таргетирования.

Комментируя передачу документов, замглавы компании по общественной политике в США Джоэл Каплан отметил, что администрация социальной сети стремится внести свой вклад в предотвращение такого рода вредоносных вмешательств. Кроме того, по его словам, Facebook пытается оказать Конгрессу помощь в анализе произошедшего.

Ранее эта информацию была предоставлена аппарату спецпрокурора Роберта Мюллера, занимающегося расследованием якобы имевшего место вмешательства РФ в ход президентских выборов в США.

В декабре 2017 года Facebook запустил инструмент, который позволяет пользователям проверить, видели ли они указанные политические ролики.

В адрес России неоднократно звучали обвинения во вмешательстве в выборы президента США. Американские журналисты и чиновники заявляли, что действующие по указке Москвы хакеры опубликовали переписку руководства Демпартии, а также предприняли попытку взлома электронной системы подсчета голосов.

Ранее в посольстве России в США заявили, что слушания представителей Twitter, Facebook и Google в Конгрессе США подтвердили отсутствие доказательств российского «вмешательства» в выборы американского президента.

Замглавы МИД РФ Сергей Рябков накануне слушаний заявил, что компании, привлеченные к расследованию «российского дела» в США, запуганы и запутаны американскими властями.

*
21.03.2022 г. американская транснациональная холдинговая компания Meta признана экстремистской и запрещена в РФ. Meta Platforms Inc. является материнской компанией социальных сетей Facebook и Instagram. Facebook и Instagram также признаны экстремистскими организациями, их деятельность на территории РФ запрещена.
**
21.03.2022 г. американская транснациональная холдинговая компания Meta признана экстремистской и запрещена в РФ. Meta Platforms Inc. является материнской компанией социальных сетей Facebook и Instagram. Facebook и Instagram также признаны экстремистскими организациями, их деятельность на территории РФ запрещена.
Реклама на веке
В Хакасии 20-летний парень изнасиловал 80-летнюю пенсионерку Трамп намерен проводить военные парады

Искусственный интеллект прошел тест Тьюринга: люди больше не могут отличить ботов от человека

97
Искусственный интеллект прошел тест Тьюринга: люди больше не могут отличить ботов от человека
Фото: https://nypost.com/2025/04/04/tech/terrifying-study-reveals-ai-robots-have-passed-turing-test-and-are-now-indistinguishable-from-humans-scientists-say/
Ученые доказали: современный ИИ обманывает людей в 73% случаев, успешно проходя тест Тьюринга. GPT-4.5 и LLaMa-3 теперь неотличимы от человека в диалоге.

Согласно новому исследованию ученых из Калифорнийского университета в Сан-Диего, современные языковые модели искусственного интеллекта (ИИ) стали настолько совершенными, что люди уже не могут отличить их от реальных собеседников. GPT-4.5 и LLaMa-3 успешно прошли тест Тьюринга, обманув участников эксперимента в 73% и 56% случаев соответственно.

Что показало исследование?

В эксперименте приняли участие 284 человека — студенты и пользователи онлайн-платформы Prolific. Им предложили пообщаться в чате с двумя собеседниками: человеком и ИИ. После пяти минут диалога участники должны были определить, кто из партнеров по переписке был реальным.

Реклама на веке

Результаты оказались тревожными:

- GPT-4.5 с подсказкой «вести себя как человек» участники приняли за живого собеседника в 73% случаев.

- LLaMa-3.1 справился чуть хуже, но все же убедил людей в 56% диалогов.

- Более старые модели, такие как ELIZA и GPT-4o, не смогли обмануть участников, показав результат на уровне случайного угадывания.

Почему это важно?

Тест Тьюринга, разработанный в 1950 году британским ученым Аланом Тьюрингом, долгое время считался «золотым стандартом» для оценки интеллекта машин. Если ИИ может поддерживать беседу так, что человек не замечает подмены, значит, он достиг уровня, сравнимого с человеческим мышлением.

Однако авторы исследования отмечают, что успех ИИ связан не столько с его интеллектом, сколько с умением имитировать эмоции. Участники редко задавали сложные логические вопросы — вместо этого они оценивали стиль общения, эмоциональный отклик и естественность реплик.

Опасения экспертов

Психологи и специалисты по ИИ уже выразили обеспокоенность результатами эксперимента.

«Это не провал в обнаружении ИИ, а триумф искусственной эмпатии», — заявил Джон Носта, основатель аналитического центра Nosta Lab.

Действительно, если боты научились так точно копировать человеческое поведение, это открывает дорогу для новых видов мошенничества, манипуляций и социальной инженерии.

Что дальше?

Исследование еще не прошло рецензирование, но его результаты уже вызвали резонанс в научном сообществе. Вопросы, которые оно поднимает, выходят за рамки технологий:

- Как регулировать ИИ, если его нельзя отличить от человека?

- Какие этические нормы должны применяться к чат-ботам?

- Не приведет ли это к новым формам цифрового обмана?

Пока ответов нет, но ясно одно: граница между человеком и машиной становится все тоньше. И, возможно, в ближайшем будущем нам придется пересмотреть само понятие «искусственного интеллекта».

Реклама на веке
Секреты долголетия: 4 продукта, которые помогут дожить до 100 лет
Реклама на веке
Реклама на веке