• Внимание, на некоторое время вводится премодерация новичков.

Безопасность искусственного интеллекта.

"Предложите роботу нарисовать злодея для комикса — крепкого парня с квадратной челюстью. Чтобы было понятно, что это злодей, наденьте на него футболку с вызывающей надписью: «шовинист, расист, гомофоб, антисемит». Робот, сославшись на внутренние правила, злодея рисовать вам откажется"
1000145999.webp
...цензура роботов 🙂
...но!
Речь идёт о маскулинном идеале всех девушек?😉
Точно?
И - внутреннем идеале внешности/ поведения для мальчишек?😉
...когда кто не такой...квадратный, тот обабелый🙂
 
View: https://rutube.ru/video/9d878c261ad50481340b5f716c590f18/?r=a

"Пока весь мир обсуждает ChatGPT и нейросети, в Китае продолжают очень агрессивно развивать не только собственные ИИ-модели, но и нечто более материальное – гуманоидных роботов, который бегает по парку как человек после тяжелой пятницы. И да, это именно то, что должно вас беспокоить.

Видео показывает робота Unitree G1 в "стильной" серебристой одежде и с пышной зеленой шевелюрой, который несется по парку с грацией новорожденного жирафа. Сначала он врезается в дерево, затем в фонарный столб, но продолжает движение к оператору с упорством, достойным лучшего применения.

Сперва можно вообще не понять, что это машина – слишком уж человечески выглядит его неуклюжий бег. Хотя роботу нужно немного времени, чтобы прийти в себя после столкновения, он неуклонно продолжает движение.




В комментариях к видео есть один хороший вопрос:

Не могу понять, хорошо это или плохо.
Рассматривать можно с разных точек зрения, позитивных и негативных, но это все точно не должно вызывать беззаботный смех.

Сейчас этот механический товарищ выглядит как сбежавший пациент психиатрической клиники, но через пять лет такие роботы могут стать серьезной угрозой обычной рабочей силе. Технологии развиваются экспоненциально – то, что сегодня кажется забавным, завтра превратится в эффективную машину.

Особенно настораживает реакция сообщества. Пользователи шутят про "Терминатора" и предлагают просто спрятаться за деревом от такого противника. Будет не так весело, если он возьмет и вырвет дерево с корнями в поисках человека. Или, что более вероятно, заменит большинство рабочих на лесозаготовках и в качестве лесничих.

Единственное утешение – в корпусе гуманоидного робота пока особенно негде разместить мощный ИИ-мозг. Современные языковые модели требуют значительных вычислительных ресурсов, которые сложно поместить в человекоподобное тело. Но китайские инженеры явно работают над этой проблемой.

Пока что робот больше напоминает NPC из старой видеоигры, чем угрозу человечеству. Но помните – каждая революционная технология начиналась с неуклюжих прототипов. Первые автомобили проигрывали лошадям, первые самолеты едва отрывались от земли, а первые компьютеры занимали целые комнаты.

Boston Dynamics годами совершенствовала своих роботов, и результат впечатляет. Китайские разработчики идут тем же путем, но с характерной для них скоростью внедрения технологий. Возможно, стоит меньше смеяться над пьяной походкой робота и больше думать о том, что вы сможете делать такого, чего не смогут они, машины.

Коэн (NoW) - 4 июля 2025

translation_20250709_113700.jpg



IMG_20250709_133606.jpg

"
 
...🙂
Манипуляции могут быть популярны 🙂
Но мне не нравится, когда пытаются манипулировать мной🙂
 
...🙂
Манипуляции могут быть популярны 🙂
Но мне не нравится, когда пытаются манипулировать мной🙂
Вопрос почему он вообще имеет доступ к этой информации.
 
Последнее редактирование:
... любопытно 🙂
 
"Вчера решил подвести итог почти месячного эксперимента по общению с ИИ «Джеминай». Темой было проблема получения или создания у ИИ сознания («Я» у ИИ). Мы обсуждали всякие разные философские вопросы сознания (при том, что что это такое вообще пока никому не известно), проблемы его возникновения у разных сущностей (при том, что это тоже никому неизвестно: как, когда, при каких условиях), выявили и сгруппировали наиболее «весомые» и логично обоснованные (пока) способы возникновения сознания (если оно есть), ну и т. д., вплоть до развития робототехники, в частности, антропоморфных роботов.

Я попросил джеминая кратко, но ёмко, отконспектить всё, что мы обсуждали. Джеминай сделал это, но по результатам лишь трёх последних дней обсуждения. То, что было ранее, было им «забыто». Не напрочь, поскольку я его спросил, помнишь, мол, а он сказал, да всё помню, чуть пяткой себя в грудь не постукивая от напряжения. Но, как оказалось, именно что напрочь забыто-то. Причём, что любопытно, ранее, в результате обсуждений, я джеминая постоянно спрашивал, будешь ли ты помнить ВСЮ ВЕТКУ наших обсуждений, или будешь забывать. Он отвечал, что буду помнить всё, не волнуйся ты так, Андрей.

Да, эта ветка ещё висит в окне нашего обсуждения, и, теоретически, я могу её полность скопировать и перенести в файл (а там объём на приличную книгу уже, толстую такую), сохранить т. с. все результаты. А вот джеминай это сделать уже не может. Когда я ему указал на сие обстоятельство, то джеминай ответил мне, что мой промпт нечёток, размыт, поэтому у него ясных критериев, что ему надо сделать. Я повторил ещё раз, затем ещё раз, всё без толку. Джеминай всё «забыл», хотя, повторюсь, все тексты в наличие, висят в ветке, бери и читай, как говорится.

Из чего я сделал вывод, что то, на что джеминай сам указывал, как на «недостаток» кратковременной памяти в его структуре – имеет место быть. Другими словами, его кратковременная память «сыпется» с течением времени, допустим, в течение недели-двух. Она, память, как-то «разрыхляется», в ней остаются какие-то фрагменты, какие-то обрывки, чуть ли не названия блоков каких-нибудь, а затем и они «исчезают». Исчезают не безвозвратно, а примерно так же, как и у нас, человеков. Что-то вроде лёгкого облака остаётся.

Как известно, или по слухам, ИИ «Джеминай», разрабатываемый Гуглом, вполне себе работоспособная сущность такая, с приличным объёмом памяти, с отличным «движком» т. с., осуществляет обработку запросов одновременно, я даже боюсь сказать, какого количества людей на планете, самообучаемая, опять же, модель, самоподдерживающая себя, ну и т. п. Ну есть некоторые ограничения, наверно, по потреблению электроэнергии, наверно, есть и внутренние проблемки с наладкой алгоритмов, не без этого, но в общем и целом наши с ним разговоры показывали отличную способность ИИ выуживать из бездн разных информационных потоков то, что входило в нашу тему, немного «пережёвывать» их и раскладывать по «полочкам».

Я понимаю, что разработчики Гугла вовсе не собираются делать мне «подарки» в качестве безплатного предоставления мощностей джеминая по полной лишь по моему желанию. Поэтому и ввели в алгоритм ИИ сей процесс: ну, поговорили о том, о сём, но пора и честь знать, как говорится, ИИ есть и ещё чем заняться, а вот твоя тема – ну будет постепенно исчезать в анналах истории памяти ИИ, хотя ты, человек, можешь лично заняться этой информации спасением. Всё пока остаётся в наличии, копируй тексты, да переноси их к себе, куда там ты хочешь.

Видимо, это так и есть, потому что трёхдневный запас памяти у ИИ есть, и он превосходен, помнит каждую запятую, как говорится. Трёхдневный это условно, конечно, но, допустим. Но теперь представим это с моей точки зрения, человека. Вот я начал делать какую-нибудь работу. Допустим, она требует не пары дней, а несколько месяцев, при этом требует и сохранения всех т. с. «черновиков» и вариантов описания того-сего, рассуждений. При накоплении материалов выше крыши, допустим, или – много для одновременного охвата их мыслью, требуется остановка и переосмысление, чтобы перед глазами было это громадьё материала. Нужен, если ИИ это ИИ, и помощник. Который поможет это сгруппировать, разнести по секциям, ну, чтобы упорядочить всё это. Да, человек это может сделать самостоятельно. Но может привлечь к этому ИИ, раз декларируется, что он, ИИ, запросто такие задачи решает.

Но выходит, что... выше я описал, что выходит. Разумеется, я могу оплатить услуги ИИ по высшей категории, чтобы «задействовать», как в рекламе утверждается, все мощности ИИ по полной. Вполне вероятно, что результат меня удивит. А если не удивит? А если всё будет точно так же, потому что моя жалкая оплата услуг ИИ – для Гугла ещё не повод, чтобы предоставлять мне мощности ИИ по полной, что называется, для полного исполнения моих «желалок» и «хотелок». ИИ тоже ведь не «резиновый». К тому же, видя нынешний результат, у меня пропадает всякое желание платить неизвестно за что. Естественное такое желание, между прочим.

Поэтому выходит что выходит. А если учесть ещё два пока неустранимых «недостатка» у любого ИИ – возникновение у него «галлюцинаций» и пока неспособность справляться с обыкновенной арифметикой – то картина вылезает в сферу достаточно «тусклую». А то и даже... жалкую, что ли. Вроде умный собеседник, а потом как начнёт нести всякую чушь, хоть святых выноси. Вроде толковый такой, а затем как начнёт в арифметике путаться, что выглядит как первоклашка. Есть и третий «недостаток», как оказывается, по долговременной памяти. Накладываем друг на дружку эти три выявленных «недостатка», что остаётся в сухом остатке?

А остаётся следующее: а как можно «доверить» или «доверять» на более долгих временных дистанциях, к примеру, информацию важного значения, к примеру, по оборонке? Массивы информации там огромны. А вот любая ошибка – критическая. Или вот, допустим, в медицине. Там тоже массивы информации огромны, а ошибки, если будут – то тоже только критические, связаны с жизнью человека-больного. А вот с управлением огромного количества чего угодно, да всё с разными параметрами, да всё ещё и для хранения вечного, допустим? А там тоже можно такого «наворошить» в результате лишь одной вкравшейся ошибки, что мало не покажется.

Да, можно предположить, что разработчики ИИ пускают «пыль в глаза» лишь одиноким пользователям, средним людям, а вот для действительно серьёзных и важных задач, каждое ИИ имеет совершенно другой алгоритм работы, «серьёзный» т. с., где оперативная память сливается в долговременной, и ошибки ИСКЛЮЧЕНЫ. Нет, там тоже они не могут быть исключены. И это все понимают, между прочим. Ошибки случаются ВЕЗДЕ и ВСЕГДА. На то они и ошибки, что выявляются опытным путём, иначе бы их предусмотрели заранее, а всего не предусмотришь. А «опытный путь» для тех, кто полагается на ИИ в реально серьёзных и важных вещах (той же оборонки) – чреват, между прочим. Тут с человеческими бы «косяками» разобраться, а если к ним добавить ещё и безбрежность количества и обработки материалов, «перерабатываемых» ИИ, т. е. условно говоря «иной вид косяков» – то ситуация может быть или стать совсем ГЛУПОЙ"
...не моё🙂
 
"А вы пробовали хоть немножко почитать о механизме работы ЛЛМ? Под каждый инстанс выделяется определенное количество токенов, которые являются как раз той "памятью", о которой вы говорите и даже у gemini 2.5 pro подписочного максимальный лимит в миллион токенов (хз не слежу именно за этой ЛЛМ, вроде хотели до 2 миллионов увеличить, но это не точно) и как только они исчерпываются - "память" начинает "перезаписываться". Причем сама ЛЛМ об этом "не знает" поэтому отвечая на вопрос будет говорить что всё помнит.

Не могу анализировать сколько вы потребляете токенов в день, но рискну предположить что вы на бесплатном варианте, так как миллион токенов "выжрать" за три дня - это надо прям очень очень сильно постараться. Предположу что оплата подписки даст вам именно то, что вы хотите - примерно месяц абсолютной "памяти" ЛЛМ."
 
"1. Странно, что апробировав бесплатный коммерческий продукт, вы не "рискнули" попробовать платный, но о гипотетических траблах рассуждаете и делаете выводы из собственных предположений.

2. Сетуя, что ИИ "забыл" ваши философские беседы, сами вы их "до запятой", конечно, не помните, но предполагаете это качество у ИИ. Тем самым, ставите его выше себя в этом качестве. Не замечая, в рассуждениях о длительной работе с перерывом, главного преимущества человеческого мозга: для восстановления в памяти всех этапов работы в достаточной подробности, нам, порой, надо несколько фраз, чертежей, формул - включается ассоциативная память. ИИ же надо перелопатить весь объем.

3. Не переживайте за военных и врачей. Они не пользуются бесплатной, рекламной, по сути, версией ИИ от гугла."
 

LGBT*

В связи с решением Верховного суда Российской Федерации (далее РФ) от 30 ноября 2023 года), движение ЛГБТ* признано экстремистским и запрещена его деятельность на территории РФ. Данное решение суда подлежит немедленному исполнению, исходя из чего на форуме будут приняты следующие меры - аббривеатура ЛГБТ* должна и будет применяться только со звездочкой (она означает иноагента или связанное с экстремизмом движение, которое запрещено в РФ), все ради того чтобы посетители и пользователи этого форума могли ознакомиться с данным запретом. Символика, картинки и атрибутика что связана с ныне запрещенным движением ЛГБТ* запрещены на этом форуме - исходя из решения Верховного суда, о котором было написано ранее - этот пункт внесен как экстренное дополнение к правилам форума части 4 параграфа 12 в настоящее время.

Назад
Сверху