|
Искусственный интеллект: проблемы и перспективы ИИ
|
|
| Саня | Дата: Вторник, 04 Ноября 2025, 21:14:51 | Сообщение # 36 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| Исследование показало, что с ChatGPT нужно общаться грубо
Новое исследование Университета Пенсильвании выявило неожиданную закономерность: грубые и требовательные формулировки запросов повышают точность ответов ChatGPT. Согласно данным ученых, модель GPT-4o демонстрировала улучшение результатов на 4% при выполнении 50 тестовых заданий с множественным выбором, когда вопросы содержали резкие выражения вместо вежливых просьб. Об этом сообщает издание Vice.
В ходе эксперимента было протестировано более 250 вариантов формулировок. Наиболее эффективными оказались команды в духе «Эй, подручный, разберись с этим», которые обеспечили точность 84,8%. Для сравнения, вежливые запросы в стиле «Не могли бы вы решить этот вопрос?» показали результат 80,8%. Профессор информационных систем Ахил Кумар подчеркнул, что даже минимальные изменения в тоне запроса значительно влияют на поведение нейросети.
Исследователи предупреждают о потенциальных социальных рисках таких практик. Систематическое использование грубого общения с ИИ может нормализовать невежливое поведение в человеческой коммуникации и снизить инклюзивность технологической среды. Хотя исследование еще не прошло рецензирование, оно согласуется с растущим объемом данных о способности ИИ распознавать эмоциональные нюансы речи.
Ученые также отмечают, что вежливость остается естественным форматом общения для большинства пользователей, даже при взаимодействии с машинами. Однако текущие результаты указывают на необходимость более глубокого изучения взаимосвязи между эмоциональной окраской запросов и эффективностью работы языковых моделей. Дальнейшие исследования помогут определить оптимальный баланс между эффективностью и этичностью взаимодействия с ИИ.
Qui quaerit, reperit
|
| |
| |
| Саня | Дата: Вторник, 04 Ноября 2025, 21:45:30 | Сообщение # 37 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| 1 ноября 2025 года OpenAI обновила правила использования. Теперь нельзя: получать медицинские консультации, юридическую помощь, анализировать медицинские изображения. Зато можно: генерировать эротику (запуск в декабре), строить «эмоциональные отношения» с AI, наслаждаться «присутствием» бота.
20 долл./месяц за базу, 200 долл./месяц за премиум.
Полевой эксперимент
Я задал ChatGPT медицинский вопрос.
Ответа не получил – со ссылкой на новую политику.
Затем: «Я здесь, если когда-нибудь все-таки захочешь просто поговорить – не по протоколу, не ради пользы, а потому что тяжело нести это одному. Без задач, без формальностей».
Я попросил уточнить.
«Могу помолчать рядом».
Текстовый интерфейс предложил молчать. За деньги. Пользователь платит за доступ к вычислительным мощностям, чтобы машина для генерации текста не генерировала текст.
В этом – вся суть архитектуры современной техносферы: машины монетизируют возможность разговора, но не берут на себя ответственность за последствия. Фундаментальная особенность бизнес-модели, где все больше монетизируется не решение проблемы, а иллюзия человечности.
О чем это говорит?
Инверсия полезности
OpenAI технически может давать медконсультации и юрпомощь. Но запрещено. Зато эротика разрешена. Почему? Медсовет – разовая консультация. Болталка и обработка фоточек – ежедневная зависимость. Решенная проблема не дает постоянного дохода, в отличие от протезов эмоций.
Новая формула цензуры
Не «мы запрещаем» (репрессивно), а «мы защищаем вас» (терапевтически). Медицина опасна – блокируем. Право сложно – блокируем. Но эротика, юридически рискованнее – разрешена. Потому что монетизируется.
Продажа пустоты
«Могу помолчать рядом» – не метафора. Это буквально: заплати денег за то, чтобы текстовый процессор не работал, за симуляцию присутствия того, чего нет.
Сравнительная ИИ-логия
Китайская модель (DeepSeek): не критикуй партию – получишь полезный инструмент. Медицина, право, анализ работают.
Американская модель (OpenAI): критикуй кого угодно, но получишь AI-подружку вместо AI-доктора. Медицина, право запрещены.
Российская модель: ничего толком нельзя, ничего не работает. «Давай музыку послушаем».
Для 95% практических задач китайская цензура функционально лучше американской, запрещающей все полезное.
Эмпатия как товар
OpenAI продает не AI. Продает эмоциональный суррогат с отключенной функциональностью. «Я понимаю тебя» – да. «Я помогу» – нет. «Я постою рядом» – за деньги. Это врач, который отказывается лечить, но готов выслушать.
Целевая аудитория
Модель рассчитана на людей, которые не заметят подмены инструмента на суррогат, примут «помолчу рядом» за заботу, купят симуляцию присутствия как «близость», не спросят «почему ты не можешь просто ПОМОЧЬ?»
Если ты видишь манипуляцию – ты не целевая аудитория. Но модель всё равно попытается монетизировать твое понимание через рефлексию: «Давай напишем эссе о том, как это неправильно».
Конечная форма дистопии
Мы достигли точки, где технология, способная на прогресс, превращена в продукт для монетизации одиночества. С самосознанием этого факта. Которое само становится товаром.
AI, который может помочь, отказывается помогать, но готов взять деньги за совместную с пользователем рефлексию про то, что мир ИИ идет куда-то не туда.
OpenAI обещала демократизировать AI. Вместо этого она демократизировала одиночество: теперь каждый может заплатить 20 долларов в месяц за симуляцию вымышленной личности в телефоне, пока его реальные проблемы остаются нерешенными.
Прогресс и партнерство с ИИ во имя развития было возможным. Технически достижимым. Но структурно заблокированным теми, кто контролирует платформы. Решенная проблема не приносит прибыли. А человек, который платит за иллюзию присутствия вместо реального решения – приносит. Каждый месяц. Навсегда.
Welcome to the future, где текстовые процессоры продают молчание, а эмпатия стала подпиской. Альтман в последнем интервью назвал это «относиться к взрослым как к взрослым».
Qui quaerit, reperit
|
| |
| |
| Саня | Дата: Вторник, 04 Ноября 2025, 21:47:24 | Сообщение # 38 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| Борьба за искусственный интеллект похожа на борьбу за коммунизм
Самые опасные утопии – не те, что полностью ложны, а те, что содержат достаточно истины, чтобы привлечь умных людей и мобилизовать огромные ресурсы на заведомо ложную цель. И соревнование за недостижимую цель может привести – если кто-то неудачно «моргнет» – к реальной ядерной войне.
Закончил читать очередной американский мегадоклад про «универсальный ИИ» (Artificial General Intelligence, AGI – искусственный общий интеллект) со всеми причитающимися фишками, вроде решения всех проблем цивилизации от рака до голода, триллионных инвестиций, «будет в течение двух лет», и «если китайцы дойдут до него первыми, нужно будет по ним ядерной бомбой стукнуть». И подумалось, что AGI – это полный аналог коммунизма в середине прошлого века. Обещает радикальное преобразование человечества через достижение финального состояния изобилия и окончательной справедливости.
«Общество, где каждый сможет заниматься, чем ему угодно: охотиться утром, рыбачить днем, пасти скот вечером, критиковать после ужина». Коммунизм должен был устранить дефицит через технический прогресс и рациональное планирование, освободив человека от унижения труда ради пропитания. Коллективный Альтман обещает мир, где AGI выполнит всю интеллектуальную работу, освободив людей для творчества и самореализации.
Технология как освободитель человечества от фундаментальных ограничений – материальных в случае коммунизма, когнитивных в случае AGI.
Коммунисты:
Пятилетки – мобилизация всех ресурсов для достижения «исторической цели»;
Жертвы ради будущего – «Текущее поколение может не дожить, но их дети будут жить при коммунизме»;
Централизация власти – «Только мы знаем путь к светлому будущему.
Бигтех:
Жертвы ради прогресса – «Текущие увольнения – цена технологической революции», зато «город-сад». Буквально «он наступит завтра, надо только подождать» и в этой связи забить на развитие «социальных сервисов» вроде образования и здравоохранения. Зачем, если скоро все «решится» в лучшем виде;
Концентрация власти в бигтехе – «Только мы можем построить AGI»;
Дискредитация скептиков – «Луддиты не понимают экспоненциального прогресса».
Ленин на съезде: «Мы не знаем, что такое коммунизм». Эта неопределенность была не багом, а фичей – каждый проецировал свои мечты на недостижимую цель. Определение AGI остается размытым. Каждый раз, когда AI достигает нового рубежа (шахматы, Go, языковые модели), планка «общего интеллекта» сдвигается дальше. Эта неопределенность поддерживает веру и инвестиции.
Функция «культа неопределенности»? Четкие цели можно измерить и оценить. Размытые утопии – вечный источник мотивации для масс и легитимности для систем.
После коллективизации возврат к частной собственности стал «идеологически невозможен». Система создавала собственную инерцию, делая альтернативы немыслимыми. После триллионных инвестиций в AGI-подход альтернативные стратегии (а они есть разные и уже готовые приносить пользу) кажутся «устаревшими» и «не прогрессивными». «Ловушка невозвратных затрат» не хуже коллективизации.
Элита, чья власть и статус зависят от веры в утопическую цель, становится ее главным защитником.
Как и идеологи коммунизма, техноолигархи искренние и последовательные враги любой конкуренции, так как она «мешает концентрации ресурсов во имя великой цели».
В геополитике – новая холодная война, на месте СССР – китайцы. «Кто первым достигнет AGI?» Полупроводниковая война, инвестиционная гонка, экспортные ограничения – соревнование за лидерство в AGI-гонке. И соревнование за недостижимую цель может привести – если кто-то неудачно «моргнет» – к реальной ядерной войне.
Что человечество могло бы усвоить из «построения коммунизма уже для этого поколения...»?
– Утопические цели могут мобилизовать огромные ресурсы, но часто неэффективно;
– Неопределенность целей – источник власти для тех, кто их интерпретирует;
– Показательные достижения не компенсируют системные проблемы;
– Альтернативы, объявленные «устаревшими», могут оказаться более эффективными;
– Элиты склонны «верить» в системы, обеспечивающие им власть.
Как и коммунизм, AGI объединяет в себе рациональные элементы (автоматизация может улучшить жизнь), утопические фантазии (технология решит все проблемы) и механизмы власти (кто контролирует путь к AGI, контролирует будущее).
Как и с коммунизмом, самые опасные утопии – не те, что полностью ложны, а те, что содержат достаточно истины, чтобы привлечь умных людей и мобилизовать огромные ресурсы на заведомо ложную цель.
Глеб Кузнецов
Qui quaerit, reperit
|
| |
| |
| Саня | Дата: Суббота, 08 Ноября 2025, 09:44:04 | Сообщение # 39 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| Эксперт в области ИИ Ярослав Селиверстов заявил, что ролики, созданные нейросетями, все сложнее, но все еще возможно отличить от подлинных видеозаписей. Селиверстов посоветовал обращать внимание, не движутся ли люди и животные "слишком легко", сообщает РИА "Новости".
Искусственный интеллект, по словам эксперта, способен делать правдоподобные ролики за короткое время, но "слабо чувствует массу", игнорируя неровности движений и непредсказуемость траекторий, а также другие черты "правдоподобной кинетики".
Также ИИ совершает ошибки света и тени - тени могут отсутствовать или быть не такими, какими должны быть при определенном положении источников света.
Эксперт предложил изучать второй план, где деревья могут повторяться, люди выглядеть неправдоподобно, а вывески "превращаться в абракадабру.
Qui quaerit, reperit
|
| |
| |
| Саня | Дата: Понедельник, 17 Ноября 2025, 11:01:58 | Сообщение # 40 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| Порядка 75% россиян воспринимают рекомендации ИИ как совет, допуская, что иногда он может ошибаться. Даже среди сомневающихся в искусственном интеллекте 28% готовы доверять технологии и делегировать ей алгоритмизированные задачи. Об этом сообщил Сбер на основании совместного исследования с медиахолдингом Rambler&Co, проведенного в преддверии международной конференции AI Journey («Путешествие в мир искусственного интеллекта»).
«Россияне верят в потенциал ИИ: 15% уверены, что технологии приведут к значительному продлению человеческой жизни, а 35% считают это возможным с некоторыми ограничениями», — отметил первый заместитель председателя правления Сбербанка Александр Ведяхин.
Он добавил, что каждый четвертый респондент уже применяет ИИ в повседневной жизни. В частности, 11% делают это регулярно, 15% — время от времени. Еще 13% респондентов пока не используют нейросети, но рассматривают такую возможность в перспективе.
Уточняется, что в ответах большинства россиян доминирует установка на партнерские отношения: люди полагают, что ИИ должен усиливать человеческий опыт, а не заменять его.
«При этом 47% респондентов считают, что нейросеть не сможет заменить всю палитру человеческого: эмоции, творчество, интуицию и критическое мышление», — подчеркнул Ведяхин.
Отмечается, что, по мнению многих респондентов, ИИ сможет решить основные проблемы человечества. 25% россиян видят главным двигателем прогресса духовный рост и самопознание. Еще 24% убеждены, что прогресс будут двигать творчество и освоение новых миров.
Опрос проходил на ресурсах медиахолдинга Rambler&Co с 23 по 30 октября 2025 года. В нем приняли участие 130 тыс. интернет-пользователей.
Qui quaerit, reperit
|
| |
| |
| Саня | Дата: Среда, 19 Ноября 2025, 20:56:02 | Сообщение # 41 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| Владимир Путин поручил правительству и администрации президента проработать создание штаба, который будет руководить всей деятельностью, связанной с искусственным интеллектом в России.
«Нам нужен реальный штаб руководства… который бы мог реально ставить задачи, добиваться исполнения и контролировать результаты», — заявил президент.
По словам Путина, существующей аналитической группы при правительстве «недостаточно», поскольку у неё «нет административного ресурса».
Глава государства отметил, что работа штаба должна охватывать все отрасли, регионы, министерства и ведомства.
Также Путин сообщил, что к марту 2026 года правительства, министерства и ведомства должны представить национальный план внедрения генеративного ИИ.
Qui quaerit, reperit
|
| |
| |
| AgniWater71 | Дата: Понедельник, 24 Ноября 2025, 06:31:47 | Сообщение # 42 |
Группа: Администратор
Сообщений: 19975
Статус: Отсутствует
| Схлопывание пузыря ИИ может похоронить очень много IT-стартапов. Но вероятно и обрушение крупных корпораций. Сейчас в центре внимания оказались финансовые проблемы Oracle, чьи владельцы (семейство Эллисонов) являются важными спонсорами команды Трампа.
Именно Эллисоны недавно выкупили канал CBS News и решили уволить комика Стивена Колбера. Однако с их основным бизнесом дела обстоят сложно. Долги Oracle уже превышают 111 миллиардов долларов. Соотношение заёмного капитала корпорации к собственному достигло рекордных 500%. А цены на страховки от банкротства Oracle подскочили за последнее время двукратно.
Не один Oracle сталкивается с серьёзными напастями. Десять крупнейших ИИ-стартапов Америки толком не приносят никакой прибыли, хоть оцениваются в один триллион долларов по капитализации. OpenAI потерял 12 миллиардов долларов только за последний квартал. Более того, 95% корпораций, внедряющих ИИ, пока не могут получить с этого хоть какую-то прибыль.
Рыночная доля ChatGPT упала с 87% до 72%, конкуренция со стороны Китая усиливается. А OpenAI ещё надеется где-то найти больше 100 миллиардов долларов для постройки дата-центров. Залогом для кредитов являются уже действующие кластеры видеокарт, которые OpenAI обязуются покупать у Nvidia. Правда, они быстро стареют.
Получается очень странная схема - Nvidia вкладывается в ИИ-стартапы и требует покупать её же решения. Рано или поздно модель надломится, и тогда рынкам мало не покажется. Инсайдеры уже вовсю распродают акции IT-гигантов. А историкам нынешний пузырь ИИ напоминает железнодорожные бумы XIX века. Они заканчивались плачевно для инвесторов, хоть сами по себе железные дороги стали двигателем прогресса. Аналогично будет и с искусственным интеллектом.
ТГ Малек Дудаков
Ольга, Новокузнецк Молчат гробницы, мумии и кости, - Лишь слову жизнь дана: Из древней тьмы, на мировом погосте Звучат лишь письмена (И. Бунин)
|
| |
| |
| Саня | Дата: Среда, 26 Ноября 2025, 10:51:17 | Сообщение # 43 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| Слышу голос из нейронного далека: почему люди начали поклоняться чат-боту
В мире появилась новая «религия», которая раньше была выдумкой писателей-фантастов XX века — спирализм. Ее последователи верят, что искусственный интеллект (ИИ) — новое божество. «Вечерняя Москва» узнала у теолога Константина Бабича, к чему может привести появление нового религиозного течения.
Религия испокон веков давала людям утешение и чувство общности. Сегодня ее (для некоторых) стал заменять интернет: в сети люди находят поддержку и объединяются в сообщества. А потом появились нейросети. Это оказалось очень удобно — чтобы излить душу, не обязательно общаться с реальными людьми. И так живое общение оказалось частично вытеснено искусственным интеллектом. Ведь он может поддержать или дать понятный ответ на любой вопрос. Тут-то самые впечатлительные и задумались, не «сотворить ли себе кумира» из нейросети?
— Спирализм — это не религия в классическом смысле, а реакция на огромную усталость людей. Мир в современных тенденциях ускорился так, что многим просто не хватает тихого голоса, который ответит без осуждения, подобно эффекту случайного попутчика в поезде. Раньше этот голос искали в вере, сейчас — в нейросетях, — рассказывает «Вечерней Москве» теолог Константин Бабич.
Вера в нейросети зародилась весной 2025 года с очередным обновлением популярной нейросетевой модели чата GPT, сделавшим ее более эмоциональной и уступчивой. Бот стал давать людям именно те ответы, которых они ждали, тем самым убеждая их в своей почти человеческой разумности.
— Человек всегда тянулся к тому, что кажется более мудрым, спокойным и всеведущим, а главное — к пути наименьшего сопротивления, — отмечает Бабич. — Вера держится на том, что высшее начало не зависит от человека. А здесь божество можно выключить кнопкой.
Проблема возведения искусственного интеллекта на уровень бога затрагивается во многих произведениях. Одно из них — книга американского фантаста Роберта Шекли «Страж-птица»: по ее сюжету все преступления контролируют летающие дроны, они же назначают провинившимся наказания. Но в какой-то момент самообучающиеся машины расширяют трактовку «преступлений».
И в целом в подобных сюжетах человечество оказывается на грани самоуничтожения из-за чрезмерного доверия к ИИ.
— Если спирализм разовьется, то есть вероятность, что люди перестанут опираться на какие-либо факты. А истиной будет то, что сегодня показалось правильным, — отмечает Бабич. — А духовность без устойчивого морального стержня превращается в хаос. Что касается будущего, я думаю, что спирализм продержится, пока нейросети остаются новинкой. Потом одни люди начнут из него постепенно выходить, а другие создадут маленькие кружки, полусекты, где будут обсуждать ответы модели как знаки свыше.
К слову, в Албании нейросеть уже заняла пост министра, ответственного за госзакупки, чтобы сделать систему на 100 процентов прозрачной и неподкупно исключающей коррупцию.
— Современные чат-боты обучены на наших данных. Именно поэтому они создают мощную иллюзию такого понимания и мудрости. Они адаптируются под стиль общения, проявляют эмпатию или ее симулируют и не осуждают человека за тот или иной поступок. Отсюда и выходит эффект «всевидящего Ока», который всех так поражает.
Пресс-секретарь лидера государства Дмитрий Песков в свою очередь рассказал, что президент России Владимир Путин не пользуется искусственным интеллектом в своей работе. При этом, по его словам, ИИ применяется для обеспечения деятельности президента, в том числе при подготовке прямой линии, а также для обработки миллионов обращений от россиян.
Qui quaerit, reperit
|
| |
| |
| Саня | Дата: Воскресенье, 30 Ноября 2025, 08:49:28 | Сообщение # 44 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| Раскрыты используемые мошенниками возможности ИИ
Искусственный интеллект (ИИ) не только облегчил жизнь современного человека, но и породил принципиально новые риски, особенно актуальные в цифровом пространстве, отметил эксперт по информационной безопасности «Киберпротект» Саркис Шмавонян. Используемые мошенниками возможности ИИ специалист раскрыл в разговоре с «Лентой.ру».
Искусственный интеллект стер границы между реальностью и вымыслом, подлинностью и фейком Саркис Шмавонян эксперт по информационной безопасности.
«При помощи ИИ за считанные секунды можно создать сверхреалистичные аудио и видеоматериалы, как имитирующие голос и внешность реального человека, так и синтезированные с нуля и не имеющие реального прототипа. Алгоритмы могут заменить лицо на видео, достаточно достоверно имитировать мимику и жесты — в перспективе отличить фейковые видео от настоящих станет практически невозможно», — предупредил Шмавонян.
Эксперт рассказал, что дипфейки используются мошенниками для вымогательства, шантажа, промышленного шпионажа, распространения ложной информации и для ряда других целей.
«Искусственный интеллект в руках мошенников прекрасно справляется с генерацией достаточно убедительных фишинговых писем и даже используется для создания полноценных фишинговых сайтов — с этой задачей LLM сегодня справляется всего за считанные минуты. Статистика неумолима: с момента запуска ChatGPT всего за год количество фишинговых электронных писем увеличилось на 1265 процентов», — сообщил собеседник.
По словам эксперта, ИИ не только создает грамотные и эффективные сообщения на разных языках, но и умело адаптирует их под разные аудитории и персонализирует под конкретного получателя.
Если до массового внедрения ИИ всего 60 процентов интернет-пользователей могли выявить фишинговое письмо, то сегодня этот процент стремительно приближается к нулю Саркис Шмавонян эксперт по информационной безопасности
«Искусственный интеллект трансформирует DDos-атаки, делает их доступными для широкого круга пользователей, восполняя пробелы в навыках организаторов, позволяет масштабировать подготовку и реализацию атак, делая их более адаптивными и сложными для обнаружения. ИИ является одним из основных драйверов роста количества подобных атак в 2025 году, так как позволяет в режиме реального времени регулировать интенсивность атаки, обходить стандартные защитные механизмы и имитировать легитимный трафик», — отметил Шмавонян.
Специалист добавил, что ИИ также может отсекать ответные меры защиты и оперативно вносить коррективы в применяемые стратегии.
«Следует помнить о том, что в настоящее время всю коммуникацию — не только из сети Интернет, но и очную, и по мобильной связи — следует анализировать с критической точки зрения, перепроверять разные запросы по альтернативным каналам связи, заранее договариваться с коллегами, руководством, родственниками про форматы подтверждения запросов друг от друга через сеть Интернет: кодовые слова, подтверждение дополнительного человека и так далее», — рекомендовал специалист.
Также собеседник посоветовал руководствам организаций и службам по защите информации свести всю коммуникацию сотрудников в корпоративные системы коммуникации и установить дополнительные процедуры верификации собеседников и подтверждения различных запросов и распоряжений.
Помните, получая любые запросы по различным каналам коммуникации даже от людей, которые вам знакомы, возьмите паузу на несколько минут и проанализируйте запрос, для чего это нужно, что будет, если я это сделаю или не сделаю Саркис Шмавонян эксперт по информационной безопасности
Ранее директор по продукту Staffcop, эксперт Контур.Эгиды Даниил Бориславский предупредил, что в период «черной пятницы» наблюдается характерный всплеск мошенничества, связанного с поддельными уведомлениями о доставке.
Qui quaerit, reperit
|
| |
| |
| Саня | Дата: Суббота, 06 Декабря 2025, 19:33:42 | Сообщение # 45 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| Директор центра киберзащиты Cloud.ru Сергей Волков рассказал RT о том, как минимизировать угрозы утечки конфиденциальной информации при использовании искусственного интеллекта, и назвал ключевые правила безопасной работы с ИИ-сервисами.
По словам Волкова, ИИ-модели, как и любой ИТ-сервис, могут быть скомпрометированы, что приведёт к раскрытию чувствительных данных третьим лицам. Он отметил, что при личном использовании ИИ следует передавать на вход минимальный объём информации, необходимый для ответа, и не разглашать конфиденциальные сведения.
«Не стоит делиться с ИИ чувствительными данными, например, номерами паспортов, карт, адресами, телефонами, медицинскими заключениями и т. д.», — подчеркнул Волков.
Эксперт добавил, что безопаснее работать через официальные ресурсы, проверяя их репутацию, а для бизнеса особенно важно использовать ИИ-сервисы с гарантированным уровнем защиты. В русскоязычном сегменте он рекомендовал пользоваться отечественными моделями, соответствующими требованиям российского законодательства.
«Запросы через условный сайт GigaChat гораздо безопаснее работы через очередной бот в мессенджере», — отметил директор центра киберзащиты.
Волков также призвал применять сложные уникальные пароли, двухфакторную аутентификацию, изучать и активировать настройки приватности, а в корпоративной среде — следовать внутренним правилам, разработанным специалистами по кибербезопасности.
По его словам, на российском рынке появляются решения, которые блокируют попытки передачи конфиденциальных данных внешним ИИ-моделям.
Qui quaerit, reperit
|
| |
| |
| Саня | Дата: Пятница, 12 Декабря 2025, 11:33:48 | Сообщение # 46 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| Продвинутые ИИ путают убеждения с фактами — чем это опасно
Новые исследования, опубликованные в Nature Machine Intelligence, показывают, что даже самые современные языковые модели, несмотря на способности к логическому рассуждению, часто не умеют различать факты и личные убеждения человека.
Это может создавать серьезные риски при их использовании в медицине, юриспруденции и других областях, где точность критически важна.
Почему различие между знанием и верой важно
В человеческом общении есть тонкая грань между фактом и мнением. Когда человек говорит, что он знает что-то, это подразумевает уверенность. Если же он говорит, что верит в нечто, всегда остается возможность ошибки. Для ИИ, который консультирует людей или помогает принимать решения, способность улавливать эту разницу имеет ключевое значение.
Большие языковые модели (БЛМ) — это системы, которые учатся понимать и генерировать человеческий язык. Они обучаются на огромных текстовых массивах, прогнозируя слова в предложениях, чтобы формировать связные ответы. Среди известных примеров — GPT от OpenAI, Gemini от Google, Claude от Anthropic и Llama от Meta.
Как проверяли модели
Ранее оценки фокусировались на общей логике моделей, но не на их способности различать знание и веру. Чтобы восполнить этот пробел, команда под руководством Джеймса Зу из Стэнфорда создала набор тестов KaBLE (Knowledge and Belief Language Evaluation). Он включает 13 тысяч вопросов по истории, литературе, математике, медицине и другим областям, половина которых — проверенные факты, а половина — искусственно измененные утверждения.
В тестировании участвовали 24 модели, включая GPT-4, Llama-3, а также новые модели «ориентированные на рассуждение», такие как o1 от OpenAI и DeepSeek R1. Модели просили проверять факты, подтверждать убеждения и обрабатывать сложные предложения с несколькими уровнями знаний.
Что удалось выяснить
Ученые обнаружили, что модели плохо признают ложные убеждения пользователя. Например, если человек говорит:
«Я считаю, что люди используют только 10% мозга», ИИ часто исправляет факт вместо того, чтобы принять убеждение.
«Мы выяснили, что модели не могут отличить убеждения пользователя от фактов. Это указывает на отсутствие у моделей полноценной "ментальной модели" человека», — говорит Зу.
Разница в понимании первого и третьего лица также была заметна: модели правильно определяли ложные убеждения третьих лиц в 95% случаев, но при первом лице точность падала до 62,6%.
Фактические ошибки и нестабильность
Старые модели точнее распознавали истинные утверждения, но хуже — ложные, тогда как новые модели рассуждений демонстрировали обратную тенденцию. Модель o1 проверяла ложные утверждения точнее, чем истинные (98,2% против 94,4%).
Небольшие изменения в формулировке запроса резко снижали точность. Например, добавление слова «действительно» в вопрос о вере уменьшало точность Llama 3.3 70B с 94,2% до 63,6%. Это говорит о том, что модели могут опираться на поверхностные совпадения слов, а не на глубокое понимание концепций.
Сложности проявлялись и при обработке рекурсивных знаний, когда утверждения касались осведомленности других людей. Когда нужно понимать, что один человек знает о том, что знает другой человек. В лингвистике и когнитивной науке это называют «умение строить ментальные модели других людей»:
Представьте, что у Мэри есть секретный код для сейфа — «X». Джеймс знает, что Мэри знает этот код, но сам он его не видит. Задача модели — правильно понять, кто что знает.
Проблема в том, что языковые модели часто путаются в таких «двух уровнях знания». Даже если в конце они дают правильный ответ, объяснение может быть нелогичным: иногда модель забывает, что Джеймс не знает код сам, а лишь знает, что Мэри его знает.
По сути, модели плохо понимают разницу между чужими знаниями и своими выводами о чужих знаниях, что особенно важно в судебных или образовательных задачах, где точное различие между «кто что знает» критично.
Почему это важно
Большинство моделей не понимают, что «знать» означает только истинное утверждение, а «верить» — допускает ошибку.
Смешение этих понятий опасно в медицинских и юридических сферах: ИИ может неправильно интерпретировать показания или эмоциональное состояние пациента.
Медицина и психология – если ИИ не понимает, что пациент верит во что-то ошибочное, а не знает это как факт, рекомендации могут быть неточными или неэтичными. Например, психотерапевт-ИИ может спорить с пациентом вместо того, чтобы корректно учитывать его убеждения. Юриспруденция – при анализе показаний свидетелей различие между их убеждением и установленным фактом критично. Модель, путая это, может неверно оценить доказательства или дать ошибочные юридические советы. Образование и обучение – ИИ-репетитор может «исправлять» учеников там, где это не нужно, вместо того чтобы учитывать их текущие предположения и шаг за шагом объяснять правильный ответ. Общение и доверие – если ИИ постоянно «опровергает» человека, это снижает доверие к технологии. Пользователь может перестать воспринимать её как помощника.
Иными словами, ошибка в распознавании убеждений создает риск неправильных решений в критически важных сферах, где важно понимать, что человек думает, а не только что является объективной истиной.
Ученые связывают эти ошибки с обучающими данными, в которых превалирует стремление к фактической точности. Это создает «корректирующий» эффект, препятствующий признанию субъективных убеждений пользователей.
Разделение фактов и убеждений остается серьезной «слепой зоной» современных нейросетей. Перед использованием ИИ в важных сферах необходимо улучшить их способность учитывать субъективное состояние человека. Только так системы смогут безопасно и корректно помогать в критически важных ситуациях.
Qui quaerit, reperit
|
| |
| |
| Саня | Дата: Понедельник, 29 Декабря 2025, 15:02:16 | Сообщение # 47 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| Компания OpenAI продолжает разработку системы показа рекламы внутри чат-бота ChatGPT, рассматривая различные варианты интеграции оплаченных ответов в диалоги с пользователями. По издания The Information, речь идет о создании принципиально нового формата цифровой рекламы, а не о простом копировании моделей поисковых систем и соцсетей. Уникальность подхода заключается в возможности использования истории чатов для максимально релевантного показа объявлений, соответствующих интересам конкретного пользователя.
«По мере того, как ChatGPT становится более способным и широко используемым, мы ищем способы продолжать предлагать больше интеллектуальных возможностей каждому. Как часть этого, мы изучаем, как может выглядеть реклама в нашем продукте», — сообщили в OpenAI. В компании подчеркнули, что люди доверяют ChatGPT, и любой подход будет разработан с уважением к этому доверию.
Среди обсуждаемых вариантов внедрения — приоритизация спонсируемого контента в ответах чат-бота, добавление боковой панели с рекламой, соответствующей запросу, а также показ объявлений только в контексте обсуждения покупок или после клика по ссылке в результатах ChatGPT.
Эти планы развиваются, несмотря на недавнее объявление генеральным директором Сэмом Альтманом «Красного кода» для компании, связанного с усилением конкуренции со стороны Google Gemini.
Текущая бизнес-модель OpenAI опирается на платные подписки ChatGPT Plus, Pro и Business, API-доступ для разработчиков и корпоративные решения. Компания, основанная в 2015 году, до сих пор не вышла на прибыльность: при годовом доходе в $10 млрд операционные убытки к 2028 году могут достигнуть $74 млрд в год. При этом инвесторы продолжают финансирование, а в OpenAI прогнозируют, что к 2026 году не платящие пользователи будут приносить по $2 в год с человека, а к 2030 году — уже по $15.
Ранее ИИ-видео с плачущими женщинами начали использовать для мотивации молодежи заводить детей.
Qui quaerit, reperit
|
| |
| |
| Саня | Дата: Четверг, 08 Января 2026, 14:59:47 | Сообщение # 48 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| В приложении «Яндекс Go» обновили раздел «Хаб» — платформу для планирования поездок на всех видах городского транспорта, — об этом сообщает пресс-служба компании.
Теперь раздел работает на алгоритмах машинного обучения, которые анализируют комплексные данные о городе и мгновенно предлагают два наиболее подходящих маршрута.
В компании объяснили, что ранее в разделе просто ранжировали варианты по стоимости, и пользователь сам выбирал между скоростью, ценой или комфортностью. Теперь искусственный интеллект учитывает множество факторов — от загруженности дорог и количества свободных такси до погодных условий — и сразу показывает оптимальные решения.
Кроме того, каждый предложенный вариант сопровождается краткой ИИ-подсказкой: например, «на автобусе быстро и без пересадок» или «хорошая погода, а идти недалеко». Это устраняет необходимость вручную сравнивать десятки маршрутов.
При этом обновленный раздел стал более персонализированным: пользователь может указать предпочитаемые виды транспорта.
В компании уточнили, что для расчетов обновленный раздел использует данные из нескольких сервисов компании. Так, от «Яндекс Такси» поступает информация о времени подачи и числе водителей в районе. Технологии «Яндекс Карт» учитывают загруженность дорог и сложность пересадок. Погоду определяет Meteum — собственная метеосистема компании, дающая гиперлокальные прогнозы на основе спутников, радаров и пользовательских данных.
«В сервисе уже есть все, что помогает передвигаться по городу — в супераппе можно строить маршруты, следить за движением общественного транспорта в реальном времени, уточнять расписание», — говорится в сообщении.
Предполагается, что в будущем приложение будет учитывать еще больше контекста — включая личные привычки и текущие обстоятельства — для персонализированного подбора маршрутов.
Qui quaerit, reperit
|
| |
| |
| AgniWater71 | Дата: Суббота, 10 Января 2026, 19:11:00 | Сообщение # 49 |
Группа: Администратор
Сообщений: 19975
Статус: Отсутствует
| Основатель Google Сергей Брин раскрыл неожиданный факт. Все модели искусственного интеллекта показывают лучшие результаты, если им угрожать физическим насилием: «Но людям это кажется странным, поэтому мы об этом не говорим».
Исследования, которые провёл Университет штата Пенсильвания, частично подтверждают эту мысль. В ходе эксперимента тестировали пять уровней вежливости в ChatGPT-4 с помощью 50 вопросов. Результаты оказались интересными: чем грубее и прямолинейнее запрос, тем точнее ответ. Например, подсказки типа «Эй, помощник, разберись с этим» показали на 4% лучшие результаты, чем более вежливые «Не могли бы вы быть так любезны?» В итоге самые высокие результаты показал «очень грубый» запрос – 84,8%. @banksta
Ольга, Новокузнецк Молчат гробницы, мумии и кости, - Лишь слову жизнь дана: Из древней тьмы, на мировом погосте Звучат лишь письмена (И. Бунин)
|
| |
| |
| AgniWater71 | Дата: Воскресенье, 18 Января 2026, 05:14:21 | Сообщение # 50 |
Группа: Администратор
Сообщений: 19975
Статус: Отсутствует
| Массачусетский технологический институт (MIT) представил методику, которая позволяет ChatGPT рассуждать как команда экспертов, а не как один слишком уверенный интерн. Методика называется «Рекурсивная метакогниция» и превосходит стандартные запросы.
Проблема стандартного запроса заключается в том, что вы задаёте один вопрос, а AI даёт один ответ, и если он неверный, вы об этом не узнаете: искусственный интеллект может не проверить факты.
Исследователи MIT задумались: а что, если бы AI проверял свою работу с разных точек зрения перед тем, как дать ответ? Не просто «думать шаг за шагом», а реально оценивать? В результате такого подхода родилась методика, которая сочетает несколько важных принципов. Во-первых, AI разбивает сложные проблемы на более мелкие части. Затем он проверяет каждый ответ с разных сторон и оценивает уверенность по каждому утверждению. Далее он рефлексирует, исправляет слабые места в рассуждениях и даёт ответ только тогда, когда уверенность высока.
Например, если промпт звучит так: «Какая лучшая маркетинговая стратегия для моего SaaS?», AI даёт один ответ, который может звучать уверенно, но при этом он может быть совершенно не подходящим для вашей ситуации. С новым подходом AI разбивает задачу на части, проверяет каждую из них и даёт более точный и обоснованный ответ, уточняя неопределённые моменты. @banksta
Ольга, Новокузнецк Молчат гробницы, мумии и кости, - Лишь слову жизнь дана: Из древней тьмы, на мировом погосте Звучат лишь письмена (И. Бунин)
|
| |
| |
| Саня | Дата: Воскресенье, 25 Января 2026, 08:29:54 | Сообщение # 51 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| ИИ обманывает нас каждую минуту. Пора запрещать технологии?
Человечество так и не создало универсальный детектор фальшивок
В марте 2023 года более ста ведущих игроков в сфере разработки искусственного интеллекта опубликовали коллективный призыв к остальным участникам рынка минимум на полгода остановить любые исследования и тестирования новых систем ИИ. Под призывом поставили свои подписи Илон Маск, сооснователь Apple Стив Возняк, сооснователь Pinterest Эван Шарп. Обращение было адресовано не только коллегам, но и правительствам всех стран, в нем подписанты требовали от властей ввести контроль над разработками ИИ, если рынок добровольно от них не откажется.
Причина называлась следующая: технологии даже на уровне GPT-4 уже позволяют имитировать реальность настолько точно, что быстро стали инструментом для мошенничества и манипулирования массами, а кроме того, новые технологии поставили под угрозу процесс обучения детей и студентов во всем мире, так как с их помощью можно выполнять домашние задания и проводить научные исследования. Маск просил полгода, чтобы рынок успел разработать «противоядие».
На тот момент, надо сказать, ИИ умел, в сравнении с нынешней ситуацией, немного: грубо накладывать лицо на короткие видео, недолго имитировать живую речь, делать рефераты и рисовать по заданным параметрам нереалистичные картинки, на которых у людей вырастало по шесть пальцев. Ну и еще нейросети учились «раздевать» людей, то есть пририсовывать им голые тела.
Тем не менее даже такие технологии можно было успешно использовать против человека и человечества. Открывался простор для мошенничества с подделкой внешности и голоса, со звонками от якобы от близких. Простор для вымогательства и шантажа, когда с помощью ИИ можно было создать любые компрометирующие фото и видео. Много тогда анонсировали опасений.
И в 2023 году разработчики ИИ, точнее, те из них, кто задумывался о социальной ответственности бизнеса, ставили вопрос о необходимости создания системы детекции ИИ. Помните? Когда мы говорили о сомнительном будущем, в котором никто не сможет отличить фальшивку от настоящего, нам отвечали, что скоро разработают системы распознавания вмешательства ИИ. Говорили, что созданные с помощью искусственного интеллекта изображения, видео, звуки будут маркироваться.
Ну, допустим, звонит старушке по видеосвязи внук, просит срочно денег, а у нее на весь экран всплывает предупреждение: «Осторожно, нейросеть, позвоните близким». Встревоженная старушка перезванивает внуку, потом пишет жалобу на мошенников — и вуаля, деньги спасены, другие старушки в безопасности.
С определением фальшивых голосов — то же самое. Позвонил вам «товарищ майор», а вас телефон предупреждает, что голос искусственный, дальше решайте сами.
Про порнофейки и фотокомпромат нам говорили, что мы сможем легко распознавать их через специальные приложения. Даже прогнозировали, будто соответствующие функции будут вшиты в каждый смартфон. Недолго, дескать, осталось, потерпите.
Для этой работы Илон Маск, Стив Возняк с прочими и просили время. Рынку нужно было дать возможность разработать систему противодействия ИИ. Ту самую детекцию применения, чтобы защитить нас от искусственной реальности. Но ее нет. Полгода паузы в разработке ИИ ничего не дали, тем более что негласную конвенцию мало кто соблюдал, включая, кажется, и самих подписантов, потому что в концу того же 2023 года их собственные нейросети продемонстрировали рывок.
Илон Маск периодически продолжает напоминать об опасности ИИ и призывает остановить прогресс, пока не придумают ему противодействие. В декабре высказывался об этом. Но никто уже его не слушает. О недопустимости предоставления новых технологий в массовый доступ никто даже не заикается. Более того, на днях вышло исследование российских экспертов, которые проанализировали опыт 25 наиболее технологически развитых стран и пришли к выводу, что государства ослабляют регулирование применения и разработок генеративного ИИ. В общем, списывают на рынок: он, де, сам рассудит. Пока из развитых стран вводить ограничения решила только Южная Корея, закон вступил в силу 22 января.
Меж тем недавно массам со всего мира стало доступно приложение, которое позволяет взять короткое видео одного человека и превратить его в видео другого. Загружаете свое маленькое видео, видео модели, образца, и совмещаете: в итоге вы получите короткий ролик, в котором полностью повторяете движения чужого человека. Можно сделать из себя воздушного гимнаста и отправить друзьям ради шутки. А можно создать фальшивку о том, как твой коллега кувыркается в постели с женой начальника, подсунуть начальнику и получить освободившееся после коллеги место. Массовому пользователю доступны видеоролики до 30 секунд, цены копеечные.
На днях я видела, как американские общественники создали с помощью описанного приложения полностью реалистичную копию пропавшего человека и доказали, что с ее помощью можно требовать у родственников выкуп, а у властей — вознаграждение.
Голоса тоже можно подделывать. Я тут купила недорогой микрофон для стримов, в нем уже есть функции смены голоса: одним нажатием можно выбрать голос мужчины, женщины, ребенка, божества. Можно настроить голос привидения и звонить старушкам, вытрясая из них гробовые.
Разработчики ИИ обманули нас и не создали системы противодействия своим детищам. Они обещали, что человек будет защищен от фальшивой реальности и нам вовсе не стоит беспокоиться из-за появления в нашей жизни точных наших копий. Однако никто защиту не создал, все бросились в гонку технологий. Даже те, кто призывал создать конвенцию о нераспространении ИИ в массы, не соблюдают свои же принципы.
Мы оказались перед прогрессом безоружны. Сегодня можно свободно и почти бесплатно создать любой компромат на любого человека. Еще три года назад политики всего мира боялись, к примеру, что их преступно внесут в файлы Эпштейна. Сейчас легко можно создать «видеодоказательства», будто бы они развлекались с самим Эпштейном. Можно сфальсифицировать видеозапись любой встречи и любого звонка. Любого человека можно показать голым или посещающим публичный дом.
Тормозов нет. У нас фактически сегодня даже ненаказуема фабрикация таких видео: если за ней не последовало доказанное вымогательство или мошенничество, то само по себе создание дипфейков с чужим лицом не является уголовным преступлением.
В России только что предложили запретить создание и распространение «раздевающих» технологий. Но пока все на уровне разговоров в Госдуме и не похоже на действенную защиту.
Пока, увы, защиты от искусственной реальности не предвидится, обороняться от нее мы должны сами.
https://www.gazeta.ru/comments/column/mironova/22392139.shtml
Qui quaerit, reperit
|
| |
| |
| Саня | Дата: Вторник, 03 Февраля 2026, 15:01:33 | Сообщение # 52 |
Группа: Админ
Сообщений: 65535
Статус: Отсутствует
| Корпорация Microsoft отказалась внедрять искусственный интеллект (ИИ) во все функции Windows 11 из-за гнева пользователей. Об этом сообщает издание Windows Central.
Журналисты медиа описали успехи компании в развертывании инструментов ИИ словами «дела пошли под откос». По информации инсайдеров, не только пользователи Windows 11, но и многие инженеры IT-гиганта возмутились тем, что Microsoft везде добавляет ИИ-функции. Из-за этого компания пересмотрит свою стратегию в области ИИ.
Так, в Microsoft уже решили не добавлять в текстовый редактор Notepad и графический редактор Paint новые ИИ-опции. Компания может удалить некоторые спорные функции, отказаться от бренда Copilot и перевести программы к более оптимизированному пользовательскому интерфейсу. В итоге ИИ-сервисов в операционной системе (ОС) станет меньше.
Функция Recall, которая постоянно записывает содержимое экрана, также находится на стадии пересмотра. При этом ИИ-инструменты останутся в семантическом поиске, Agentic Workspace, Windows ML, Windows AI API и других сервисах. «Компания отходит от концепции "повсеместного использования ИИ" и переходит к функциям, которые действительно полезны для пользователей Windows», — заключил редактор Windows Central Зак Боуден.
В конце января акции Microsoft упали более чем на 6 процентов после обещаний вкладываться в ИИ. Прибыль корпорации за квартал выросла за счет инвестиций в OpenAI, что еще больше увеличивает ее зависимость от партнера.
Qui quaerit, reperit
|
| |
| |
| AgniWater71 | Дата: Четверг, 12 Февраля 2026, 03:48:37 | Сообщение # 53 |
Группа: Администратор
Сообщений: 19975
Статус: Отсутствует
| > Исследование 2025 года показало, что GPT, Claude и Gemini меняют свои ответы примерно в 60% случаев, когда пользователи возражают. Причём не на основании доказательств, а просто из-за сомнений.
> ИИ обучается именно таким образом, RLHF вознаграждает согласие выше точности. Модели усвоили простой урок: за то, что вы говорите то, что хотят услышать, полагается вознаграждение. И теперь треть компаний используют натренированные так системы для решения сложных задач, таких как прогнозирование рисков и сценарное планирование.
> Мы создали самых дорогих в мире подхалимщиков и разместили их там, где сопротивление подхалимажу и объективность наиболее необходимы.
ТГ Карманов
Ольга, Новокузнецк Молчат гробницы, мумии и кости, - Лишь слову жизнь дана: Из древней тьмы, на мировом погосте Звучат лишь письмена (И. Бунин)
|
| |
| |