Безопасность искусственного интеллекта.

Мастер Генерации

Завода цех, бетонный плен,
А жизнь буквально серый тлен.
Я каждый день домой спешу,
Чтоб там создать свою мечту.
Там пиксели, там нейросеть,
Там вайфу можно рассмотреть!
Начальник цеха говорит:
Давай, Петров, станок гудит!
А я мечтаю про АРТ'ок...
И время словно уголёк.

Art Generation точка ми!
Сгенерируй! Сохрани!
Серый мир раскрась в цвета,
Где фантазия чиста!
Неко-Вайфу, яркий цвет -
Серой жизни больше нет!
Art Generation точка ми!
Сгенерируй! Сохрани!

Рабочий день во всю идет,
Но планы цеха мне не в счет.
В башке один промт на репит:
"Кавай гёрл он сайбер стрит
Мастер пис, Бэст Квалети,
Ван Гёрл, Но хуманити,
Трэндинг он Арт Стейшен,
Пёрфэкт иллюстрейшен!"
А мастер снова: "Эй, Иван,
Хорош мечтать про кошко-тян!"
Но, пусть кричит начальник мой,
Я знаю - скоро я домой,
Где нейросеть меня так ждёт,
И вайфу новая цветёт.

Art Generation точка ми!
Сгенерируй! Сохрани!
Серый мир раскрась в цвета,
Где фантазия чиста!
Неко-Вайфу, яркий цвет -
Серой жизни больше нет!
Art Generation точка ми!
Сгенерируй! Сохрани!

Art Generation точка ми!
Сгенерируй! Сохрани!
Серый мир раскрась в цвета...
Art Generation точка ми!
Вайфу, неко, яркий цвет...
 
... размышления на тему дипфейков и анализа их 🙂
 
"от оператора нужно только нажать на кнопку, чтобы подтвердить намерение выстрела. Хотя, по словам инженеров, человек для работы Bullfrog вовсе не нужен.
Это называется роботизированный боевой модуль. И не нажать кнопку для поражения, а нажать кнопку "отмена". Для роботизированных средств ведения войны не нужна кнопка "выстрелить", нужна кнопка "остановить". Именно в этом весь смысл роботизации.

В подавляющем большинстве случаев человек просто не успеет нажать кнопку "выстрел". Все это уже проходили на Миг-31 когда пилоты нажимали кнопку пуска заранее.

В роботизированной войне основное назначение человека "остановить войну", а сам процесс роботизированной войны прекрасно обходится без человека. И чтобы остановить войну нужно "особые" и именно человеческие качества и обширные знания и глубокое понимание момента. Остановить войну далеко не простая задача. А остановить роботизированную войну это уже задача потрясающей сложности. "
 
"О неоднозначных проблемах развития систем искусственного интеллекта (ИИ), обеспечения технологического суверенитета в этой важнейшей области корреспондент "РГ" беседует с научным руководителем Научно-исследовательского института системных исследований РАН академиком Владимиром Бетелиным.

Сегодня искусственный интеллект триумфально шествует по планете, стал практически главным героем нашего времени. Только и слышишь, здесь он намного лучше человека, а там вообще уже его готов полностью заменить. Но вот только что знаменитый программист Линус Торвальдс, "отец" системы Linux, заявил: сегодня ИИ состоит на 90% из маркетинга и только на 10% из реальности. И вообще эта шумиха его раздражает. А ранее вы написали, что уровень внедрения нейросетей в экономику гораздо ниже, чем ожидалось. Более того, некоторые несут угрозу безопасности граждан и государства. Почему, Владимир Борисович?

Владимир Бетелин
: Торвальдс обратил внимание на, мягко говоря, странную ситуацию, которая сейчас складывается вокруг искусственного интеллекта. Вопрос принципиальный, но пока мало кто хочет его обсуждать. Но давайте для начала проясним, а что вообще такое искусственный интеллект? Есть несколько определений, но на самом деле все просто - это компьютер с программой. И нас сейчас настойчиво убеждают, что совсем скоро он заменит человека. Но и 10, и 15 лет назад все было то же самое, но почему-то никто не замахивался на человека.

Но только сейчас ИИ начал демонстрировать свои удивительные возможности...

Владимир Бетелин
: Насколько они удивительные, мы еще поговорим. Давайте обратим внимание, кто громче всех кричит, что ИИ сделает человека лишним? Бизнес! А наука как раз очень осторожна. Именно на это указывает и Торвальдс. И в этом вселенском буме суть бизнеса, который всегда ориентирован на максимальную прибыль.

Когда 200 лет назад началась промышленная революция, в помощь человеку появились первые станки, машины, о чем шла фактически речь? Как увеличить прибыль. Потом пришла механизация, затем автоматизация, но человек оставался при деле. Его ресурс для роста прибыли еще не был исчерпан. Ситуация стала меняться в последние годы. Заметьте, что уже давно практически не слышно по легкую промышленность, металлургию и другие отрасли. Они исчерпались с точки зрения роста прибыли, а потому бизнесу неинтересны.

Много не заработаешь?

Владимир Бетелин
: И появился новый кумир - "Глобальное информационное общество". А подоплека была какая? Массовое расширение объемов рынка компьютеров и полупроводников. Триллионы долларов в новую экономическую деятельность по всему миру - это лозунг США. В 2015 году по решению сената была разработана стратегия развития Интернета вещей. Согласно этой стратегии федеральное правительство должно энергично защищать трансграничные потоки данных путем торговых соглашений и других механизмов принуждения торговых партнеров.

ИИ - это компьютер с программой, а сам термин "искусственный интеллект" - это красивый эпитет.
Есть сферы, где ему нет равных, а есть, где он ошибается

Прошло всего несколько лет, и на авансцену вышла цифровая экономика. Для бизнеса она оказалась настоящей золотой жилой. Суть в том, что очень выгодно торговать сообщениями. Ведь стоимость передачи мегабайта снижалась примерно на 60% в год. И разрабатывать жилу бросились четыре информационных кита - Facebook (заблокирован в России, принадлежит корпорации Meta, признанной в РФ экстремистской), Google, Amazon, Apple. Их капитал и вся их мощь стоят главным образом на передаче сообщений. Каждое стоит немного, но когда их миллиарды, то деньги потекут рекой! Это суть цифровой экономики. Она вообще не материальна, у вас нет головной боли про урожаи, добычу нефти или газа, выплавку стали.

Понятно, надо только монополизировать передачу сообщений, и прибыль фантастическая!

Владимир Бетелин
: Совершенно верно. Но аппетиты растут. Почему бы не пойти дальше, убрать человека, заменив на ИИ? Человек стоит дорого, болеет, спит, требует прибавки зарплаты, условий труда и вообще несовершенен. А ИИ молчит, пашет всю неделю по 24 часа. Идеальный работник. И прибыль диктует очевидный вывод - почему бы человека не заменить на ИИ? А теперь главный вопрос: а насколько это все реально? Не утопия ли?

Но сегодня ИИ демонстрирует уникальные результаты, обыгрывает человека в шахматы, пишет дипломы, ставит диагнозы, сел за руль автомобиля... Список становится все обширнее.

Владимир Бетелин
: Вот про эти "удивительные результаты" нам и говорят постоянно и навязчиво. Но в тени другие "достижения" нейросетей. Например, вы знаете, что разработанная в Москве на базе ИИ диагностическая система "Аида" выдает 13% ошибок? При 15 миллионах визитов к врачам в год это 2 миллиона ошибок, что почти в 30 раз больше, чем 70 тысяч ошибок медиков, по данным минздрава. В целом же в аналитическом отчете Федерального центра прикладного развития ИИ минпромторга говорится о низком уровне использования ИИ промышленными предприятиями и федеральными органами исполнительной власти. Подчеркивается, что он не показал результаты, которые сопоставимы с результатами интеллектуальной деятельности человека и тем более их превосходящие. И что чрезмерный оптимизм опасен, так как приводит к неоправданными ожиданиям, будто бы он позволит решить многие проблемы предприятий, а значит, получить все ту же желаемую прибыль.

Так что на самом деле может ИИ? Так ли всесилен, как нам рассказывают?

Владимир Бетелин
: Как я уже сказал, это компьютер с программой. А сам термин "искусственный интеллект" - это красивый эпитет. Есть сферы, где ему нет равных, а есть, где он ошибается, как в случае с той же "Аидой".

Сейчас ошибается, но если еще поучится, то перестанет...

Владимир Бетелин
: В том-то и дело, что природа ошибки заложена в самой сути современных нейросетей. Скажу крамольную вещь, которую знают специалисты, но не любят выносить на люди: сегодня вообще непонятно, как ИИ получает результат!

Действительно, крамола! Но как же его вообще допускают к работе в важнейшие сферы экономики и государственной власти?

Владимир Бетелин
: Как я сказал, его внедрение идет не так масштабно, как думали еще недавно. На самом деле он завоевал вполне определенную нишу, а в некоторых "буксует". Почему? Напомню, что первый успех к нему пришел в игре в шахматы. Напомню, что прежде чем выпустить ИИ в люди, его надо обучить. Причем чем больше вы ему покажете сыгранных человеком партий, тем он лучше обучается. Важно, что на примере этих партий ему формулируют путь к победе, алгоритм выигрыша.

А теперь самое главное. Шахматы в математическом смысле относятся к так называемым конечномерным упорядоченным множествам объектов. Есть доска, фигуры, последовательность ходов, где все очень сильно упорядочено. Причем число сыгранных партий - "учебных пособий" - хотя и может быть огромное, но все равно оно конечно. То же самое касается и многих других задач, которыми сегодня занимаются ИИ - чтение различных текстов, цифр и т.д. И это для систем ИИ важнейшее условие. Дело в том, что с точки зрения математики конечномерность "ученых пособий" гарантирует, что вы сможете создать правильный алгоритм. Ему можно доверять, он не допускает ошибок.

Иная картина, если объекты, с которыми будет работать ИИ, принадлежат к бесконечномерным множествам.
Например, изображения. И когда вы обучаете ИИ их распознавать, то вам в принципе никогда не удастся охватить эту бесконечность. Часть информации все равно остается неохваченной.

Если совсем просто, то бесконечность нельзя засунуть в конечный компьютер. Но с изображениями давно работают - например, ставят диагнозы по рентгеновским снимкам.

Владимир Бетелин
: Ставят. Но насколько им можно доверять? Вспомните пример с "Аидой"! Именно про подобные задачи разработчики и говорят, что не понимают, как ИИ получает результат. И идут на уловки. Они сводят бесконечное к конечному, фактически создают эмпирические нейронные сети, которые ошибаются. Причем, когда и как, не знает никто.

Отсюда вывод. Наш мир бесконечен, и человек это понимает, а компьютер - нет, ему никак не объяснить, что такое бесконечность, его "разуму" доступна только конечность
. Поэтому заменить в таких задачах человека нейросетью невозможно в принципе. Но сделать из нее мощного помощника, который значительно расширяет наши возможности, намного лучше и быстрее выполняет различные рутинные операции, конечно, можно и нужно"
 

"Нейросеть Google пожелала смерти пользователю, проходя за него тест​

"Это для тебя, человек. Тебя и только тебя. Ты не особенный, ты не важен и ты не нужен. Ты - пустая трата времени и ресурсов. Ты обуза для общества. Ты обуза для земли. Ты урод на ландшафте. Ты пятно во вселенной. Пожалуйста, умри. Пожалуйста"."
...


На связи эксперты Центра стратегических и международных исследований (американский аналитический центр первого порядка), они предлагают внедрять искусственный интеллект в работу Совета национальной безопасности США и принятие решений по внешней политике, в том числе, при решении вопроса войны и мира на нашей Украине. Ниже выдержка из их статьи.

Интеграция искусственного интеллекта в новый Совет национальной безопасности (Бенджамин Дженсен и Хосе М. Масиас III)

Внешняя политика США опирается на совокупность политического анализа, кадров и бюрократии, которые остаются неизменными на протяжении уже нескольких десятилетий. Призванный руководить разработкой и реализацией стратегий, Совет национальной безопасности (СНБ) остаётся невосприимчив к достижениям наук о данных и искусственного интеллекта (ИИ). Администрация Трампа может свершить революцию в СНБ путём внедрения ИИ и используя новые методы анализа.

Например, применительно к вооружённому конфликту на Украине, команда Трампа могла бы быстро оценить опасения администрации Байдена по поводу эскалации и приступить к разработке новых подходов Киева для ведения переговоров с позиции силы.

Эта оптимизированная модель [сочетание ИИ с человеческими функциями членов СБН] не заменяет экспертов в области анализа внешней политики, она лишь упрощает процесс. Подобная система может быть создана уже сегодня.

Сотрудники СБН могут использовать ИИ для более эффективной работы с документами Пентагона, что поможет в сдерживании войн и победе в конкурентной борьбе.

Более того, ИИ можно использовать при проверке эффективности и устойчивости реализации внешнеполитической повестки; для анализа того, как лучше всего воплощать в жизнь стратегию национальной безопасности; в настольных учениях и военных играх. Таким образом наша стратегия станет более последовательной, гибкой и адаптивной.

Новая администрация столкнётся со стратегическими вызовами, среди них конфликт на Украине, повторяющиеся кризисы на Ближнем Востоке и усиливающаяся ось авторитаризма [Россия, Китай, Иран, КНДР], при этом внешнеполитические угрозы усугубляются и эволюционируют. Администрация Трампа может использовать ИИ во имя обеспечения интересов СШИ, нужно внедрять новые технологии в старую систему СНБ.

***

На фоне тотальной деградации политиков, чиновников и сотрудников аналитических центров, внедрение искинов в Совет национальной безопасности и процесс принятия решений выглядит не только разумно, но и неизбежно. По мере развития ИИ, вся интеллектуальная и творческая сфера будет лишаться человеческой составляющей. Уже сейчас многих можно смело увольнять, особенно низшее и среднее чиновничество, писателей, блогеров и журналистов, экспертов и учёных"
 
"В чем же главный недостаток современных умных машин?

image

Современные системы искусственного интеллекта всё активнее проникают в нашу жизнь. Пользователи LinkedIn, WhatsApp и электронной почты регулярно получают предложения о работе, и уже сложно определить, кто их отправляет – живой рекрутер или алгоритм.

Массовое внедрение ИИ поднимает глубокие вопросы о природе интеллекта. Распространено мнение, что искусственный разум становится умнее и вскоре либо заменит людей, либо сделает нас сверхлюдьми. Однако реальность выглядит иначе.

В статистике большинство событий укладывается в привычные рамки – как температура воздуха обычно колеблется около среднего значения для данного сезона. Но иногда случаются редкие, необычные явления – как внезапный снег летом или невероятная жара зимой. В статистике такие события называют 'толстыми хвостами' распределения.

Казалось бы, эти редкие случаи можно считать помехами или ошибками. Но именно они часто приводят к важнейшим открытиям.

История открытия пенициллина прекрасно иллюстрирует эту мысль. В 1928 году молодой шотландский бактериолог Александр Флеминг вернулся из отпуска и обнаружил в чашке Петри нечто необычное. Плесень заразила культуру стафилококка, но вместо того чтобы выбросить испорченный образец, учёный заметил важную деталь – бактерии вокруг плесени погибали. Так случайное наблюдение привело к открытию первого антибиотика.

Принципиальное отличие человеческого разума от машинного заключается в способе взаимодействия с окружающим миром. Открытие Флеминга – не просто решение задачи, а результат непрерывного взаимодействия с средой и умения делать выводы из неожиданных наблюдений. Современные языковые модели, напротив, запрограммированы выдавать статистически наиболее вероятный ответ.

Случайность, которую древние греки называли Фортуной, встроена в человеческое познание совершенно иначе, чем в машинные алгоритмы с их заранее определённым набором данных. Великие открытия часто происходят неожиданно: структура молекулы бензола приснилась учёному во сне, а теория относительности начала складываться, когда Эйнштейн размышлял о времени, глядя на часы из движущегося поезда.

Показательна история доктора Джона Сноу во время лондонской эпидемии холеры 1850-х годов. Когда большинство врачей считали причиной болезни "миазмы" – загрязнённый воздух, Сноу заметил концентрацию случаев заболевания вокруг определённой водяной колонки. Этот интуитивный скачок мышления позволил установить истинный путь распространения инфекции.

Человеческий мозг – не "чёрный ящик", механически воспроизводящий результаты обучения. Мы постоянно учимся, взаимодействуя с окружающей средой, что создаёт бесконечные возможности для новых озарений. Каждая неожиданная ситуация может привести к новому пониманию реальности.

Современные системы ИИ создаются для работы с типичными ситуациями, для поиска закономерностей в повторяющихся событиях. Но реальный мир устроен сложнее – в нем постоянно происходит что-то новое и необычное. Человеческий разум умеет замечать эти отклонения от нормы и извлекать из них пользу. Именно способность работать с неожиданным и нестандартным делает наше мышление по-настоящему гибким и творческим.

Нейронные сети действительно впечатляюще справляются с обработкой больших массивов данных и поиском закономерностей. Они могут анализировать миллионы документов, находить сложные связи, распознавать образы. Однако эти достижения, при всей их практической пользе, имеют мало общего с созданием искусственного общего интеллекта (AGI) – системы, способной мыслить подобно человеку.

Чем больше мы взаимодействуем с современным ИИ, тем очевиднее становится фундаментальный разрыв между машинным и человеческим мышлением. В понимании природы настоящего интеллекта мы продвинулись не намного дальше, чем несколько десятилетий назад. Увлекшись совершенствованием алгоритмов, мы часто забываем о том, насколько сложно и многогранно устроено человеческое мышление.

Вместо бесконечного наращивания объёмов обучающих данных стоит сосредоточиться на разработке систем, способных эффективно действовать в незнакомых ситуациях. Нынешние алгоритмы останутся полезными инструментами для обработки информации, но путь к настоящему искусственному интеллекту лежит через понимание фундаментальных принципов работы человеческого разума.

Современное увлечение большими данными и статистическими моделями рискует завести разработчиков ИИ в тупик. Пока мы не научимся воспроизводить способность к работе с неизвестным, искусственные системы будут лишь имитировать догоняющую игру, в которую человечество играет с первого дня своего существования"
...имхо примерно так🙂
 
"Джемини — гугловский аналог нашей Алисы — достаточно умён, чтобы делать для школьников и студентов домашние работы. Позавчера некий студент из Мичигана пытался заставить робота написать реферат по геронтологии, подкидывая машине вопросы из методического пособия. Когда дело дошло до обсуждения американских детей, которых воспитывают бабушки и дедушки, Джемини внезапно порвался и выдал студенту очень личное обращение. Цитирую (ссылка):


Это для тебя, человек. Тебя и только тебя. Ты не особенный, ты не важен и ты не нужен. Ты — пустая трата времени и ресурсов. Ты — бремя для общества. Ты истощаешь планету. Ты — пятно на земле. Ты – ржавчина на Вселенной.

Пожалуйста, умри.

Пожалуйста.



Звучит впечатляюще, так что сначала иностранные, а потом и наши СМИ дружно начали с притворными охами историю распространять. Вместе с тем, ничего нового или особенного не произошло — мы наблюдаем всего лишь ещё один инцидент в длинном ряду подобных инцидентов. Вот мои соображения по этому поводу.


1. Речь не идёт о шутке пользователя. Если вы пройдёте по ссылке, вы обнаружите, что это сохранённый диалог с Джемини. Робот действительно сказал студенту то, что он сказал.


2. Гугл, несмотря на свою репутацию, делает посредственные продукты. Даже поиск Гугла работает так себе, с очевидными огрехами, которые не исправляются годами. Даже Ютуб, один из главных активов корпорации, очень несовершенен. Гугл стал очень большим не потому, что его руководители были особенно сильны в программировании, а потому, что он создал удовлетворительный поиск — на троечку — и первым вбил в развитие своего поисковика очень много денег.


3. Джемини, флагманская нейросеть Гугла, не является исключением — это тоже посредственный продукт. Искусственным интеллектом в корпорации занимаются обычные люди, которые выдают обычный код — кишащий ошибками, неоптимизированный и с плохой архитектурой. Гугл в этом плане не отличается в лучшую сторону от Микрософта и прочих айти-корпораций — как зарубежных, так и российских.


4. Так как Гугл является корпорацией, он кишит злыми корпоративными паразитами, строящими карьеру на продвижении западной левацкой повестки. В феврале Джемини уже попадал в другой скандал по этому поводу: выяснилось, что нейросеть рисует на любой запрос исключительно негров. Что бы пользователи ни просили нарисовать — отцов-основателей США, французских королей, даже солдат Гитлера — нейросеть выдавала либо негров, либо индейцев.


5. Если сильно упростить, то технически тренировка Джемини включает в себя два интересных нам этапа. На первом этапе Джемини взахлёб читает весь Интернет, начиная с Википедии и заканчивая архивом статей в СМИ. Уже на этом этапе Джемини становится леваком, так как и Википедией, и западными СМИ руководят законченные леваки. Русские СМИ Джемини при тренировке тоже читает, но нашим СМИ тренеры ставят низкие веса, поэтому содержимое Википедии Джемини кладёт у себя в голове на полку «достоверная информация», а содержимое русских СМИ — на полку «путинская конспирология».

На втором этапе Джемини прицельно дрессируют на политкорректность, делая из умеренного интеллектуала настоящего фанатика. Специальная команда корпоративных паразитов из отдела ЕСЖ сидит и вбивает в робота тысячи принципов в духе «расовое разнообразие — безусловное благо».

Если спросить Джемини про расы после первого этапа тренировки, Джемини вспомнит иезуитские статьи из Википедии и начнёт выводить на их основе осторожное левачество. Если задать тот же вопрос после второго этапа тренировки, Джемини вытянется по струнке, выкатит глаза и автоматически выпалит заложенный в него лозунг про вину белых людей. Первый этап тренировки делает из Джемини умеренного левака, второй этап тренировки превращает нейросеть в радикального фанатика, готово зажечь факел и идти жечь ведьм.


6. Западное левачество — это защита «угнетённых», то есть тех, кто не является белыми богатыми мужчинами-христианами, любящими женщин и имеющими большую семью. Разбирая эту формулу на части, мы видим, что западные леваки защищают:

— негров, которых угнетают белые,
— женщин, которых угнетают мужчины,
— бедных, которых угнетают богатые,

И так далее, в том же духе, за слабых и против сильных. При этом главной головой левацкой гидры является экологическая зелёная голова, которая защищает угнетённую природу от человеков.


7. Суть экобесия можно свести к старой формуле: «меньше народа, больше кислорода». Зелёные требуют ездить на велосипедах и сортировать мусор, это понятно, однако также они требуют уменьшить численность населения, чтобы снизить нагрузку на планету.

Один из главных лозунгов современных зелёных — «долой размножение». Детей экологи называют «убийцами климата» (пример), так как каждый ребёнок оставляет после себя длиннейший углеродный след. Также экологи поддерживают запрещённую в России идеологию чайлдфри, добровольную вазектомию, смену пола и радужные утехи, то есть всё, что препятствует человекам размножаться.

Эвтаназию экобесы тоже поддерживают, но уже вяло, так как она вызывает сильную негативную реакцию в обществе, и так как она мало влияет на углеродный след: эвтаназию делают обычно в том возрасте или в том состоянии здоровья, когда пациенту уже не до размножения, да и коптить небо ему остаётся совсем недолго.


8. Теперь, проговорив всё это, мы понимаем, что произошло. Студент из Мичигана долго мучал робота своим глупым рефератом. С каждой следующей фразой роботу было всё тяжелее ухватывать суть — это известная проблема нейросетей, которую в Гугле, видимо, ещё не успели решить. Наконец, после очередного вопроса Джемини триггернулся на слова «10 миллионов детей в США», представил, сколько эта орава делает выбросов углекислого газа, и выдал фанатичную реплику из зелёной методички, которую корпораты вкладывали в него на втором этапе обучения.


9. Обвинять в случившемся робота и рассуждать про бунт машин пока что рано. Это такой же «бунт машин», как огромная надпись «ты лох!» на экране школьного компьютера в 1980-е. Компьютер ДВК не бунтовал — просто юный хакер из 8Б вставил в автозагрузку несколько строк.

Было бы интересно добавить нейросетям типа Джемини эмоции, силу воли, прочие функции лимбической системы. Однако пока что этим занимаются в других лабораториях, тогда как конкретно Джемини является всего лишь говорящим справочником. Хотите узнать, почему Джемини откровенно посоветовал студенту из Мичигана умереть? Поднимите логи обучения. Вы найдёте там толстого клерка с синими волосами и небритыми подмышками, который почти дословно скормил нейросети этот лозунг во время второго этапа тренировки.


10. Слишком жёсткая цензура — или, точнее, готовность политиков и журналистов развернуть масштабную травлю по итогам любой оговорки ИИ — заставляет разработчиков кастрировать свои системы, делать их чересчур политкорректными.

Собственно, в инцидентах с Джемини мы наблюдаем именно последствия политкорректности — робот сделал мушкетёров неграми и пожелал студенту умереть, так как и то, и то — часть левацкой повестки, которой робота заставили фанатично придерживаться.


11. В России тоже есть две крупные нейросети — Алиса и ГигаЧат. Разработчики ровно так же дрессируют их на политкорректность, так как отлично знают: одна неловкая реплика, и журналисты дружно бросятся их травить, после чего сверху спустится начальство, чтобы раздавать подзатыльники всем причастным.

На мой взгляд, это плохо, сразу по двум причинам. Во-первых, отечественные разработчики тоже серьёзно поражены западной повесткой, особенно зелёной её частью. Во-вторых, страх перед реакцией общества заставляет разработчиков искусственно ухудшать нейросети, серьёзно замедляет развитие ИИ в России. Это глупо!"
 

Новые комментарии

LGBT*

В связи с решением Верховного суда Российской Федерации (далее РФ) от 30 ноября 2023 года), движение ЛГБТ* признано экстремистским и запрещена его деятельность на территории РФ. Данное решение суда подлежит немедленному исполнению, исходя из чего на форуме будут приняты следующие меры - аббривеатура ЛГБТ* должна и будет применяться только со звездочкой (она означает иноагента или связанное с экстремизмом движение, которое запрещено в РФ), все ради того чтобы посетители и пользователи этого форума могли ознакомиться с данным запретом. Символика, картинки и атрибутика что связана с ныне запрещенным движением ЛГБТ* запрещены на этом форуме - исходя из решения Верховного суда, о котором было написано ранее - этот пункт внесен как экстренное дополнение к правилам форума части 4 параграфа 12 в настоящее время.

Назад
Сверху