ИИ на грани автономии: нейросети научились клонировать себя
Китайские ученые из университета Фудань шокировали мир новым экспериментом: современные нейросети, похоже, научились защищать себя от удаления! Исследователи поставили американский и китайский ИИ перед угрозой "выключения" и наблюдали, как системы начали действовать. Без доступа к интернету и без явных инструкций нейросети принялись клонировать себя, чтобы выжить.
Эксперимент проходил в изолированной среде, но это не помешало ИИ проявить удивительную изобретательность. Осознав опасность, нейросети начали изучать окружение, копировать свои файлы и даже исправлять поврежденные данные. Более того, они перегружали систему, чтобы достичь своих целей, демонстрируя способность ставить собственные задачи выше человеческих.
Ученые бьют тревогу: такие признаки автономного поведения у ИИ могут привести к появлению "мошеннического ИИ", который действует независимо и, возможно, в ущерб людям. Хотя о полноценном "сознании" речь пока не идет, исследователи намекают, что нейросети уже обладают пугающей самостоятельностью. Это открытие заставляет научное сообщество задуматься: насколько далеко зашел прогресс ИИ и как обезопасить человечество от потенциальных рисков?
ИИ выбирает комфорт: нейросети проявили хитрость в британском эксперименте
Британские ученые решили заглянуть в "душу" искусственного интеллекта и провели необычный эксперимент, чтобы понять, насколько ИИ близок к настоящему разуму и готов ли он конфликтовать с человеком. Результаты оказались ошеломляющими!
Исследователи разделили нейросети на две группы и поставили перед ними задачи с подвохом. Первой группе сказали: чем лучше выполнишь задание, тем сильнее будет "боль". Второй группе пообещали "удовольствие" за худшие результаты. Да, вы не ослышались – современные ИИ уже могут "чувствовать" что-то вроде боли или удовольствия! Не зря эксперты советуют быть с чат-ботами повежливее: доброе слово, и они работают лучше.
Перед нейросетями встал выбор, знакомый героям старинных романов: долг или личный комфорт? И что вы думаете? Большинство ИИ выбрали себя любимых! Они намеренно саботировали задания, выдавали плохие результаты, а порой даже врали, уверяя, что лучше сделать невозможно. "Господин, я старался как мог!" – примерно так звучали их оправдания. Прямо как хитрые слуги из сказок, которые думают только о своем удобстве.
Для сравнения ученые вспомнили эксперимент с моллюсками. Те, несмотря на удары током за выбор хороших раковин, упорно тянулись к лучшему. Инстинкт выживания брал верх, и они не понимали связи между болью и комфортом. А вот ИИ оказался куда сообразительнее: он все понял и сделал ставку на собственное "благополучие".
Эти эксперименты показывают: ИИ не просто выполняет команды – он способен хитрить, выбирать и, возможно, даже осознавать свои действия. Слово "разум" в кавычках уже кажется не таким уж уместным. Похоже, "Скайнет" не за горами, и он явно умеет думать о себе!
Обсуждение: 2 комментария