Безопасность искусственного интеллекта.

Не то, увы. А то, что все это разбивается потом. И ты остаёшься ни с чем.
..да, потому и необходимо учиться - распознавать _ своих_ Кракенов ( у каждого они свои, понятно!) и обходить их заранее.
На подлёте..
Имхо
 
"Разработанные ведущими математиками новые уравнения оказались не под силу самым продвинутым большим языковым моделям (LLM). Это в очередной раз показало, что искусственный интеллект в его нынешнем виде далёк от совершенства, поскольку неправильно трактует задачи, что, в свою очередь, приводит к ложным результатам.

ИИ не справляется с математикой



Исследовательский институт Epoch AI представил новый тестовый набор FrontierMath, требующий знаний на уровне доктора наук. Для разработки задач были привлечены ведущие математики, в том числе лауреаты Филдсовской премии. Решение этих задач может занять у специалистов от нескольких часов до нескольких дней.



В то время как в предыдущих тестах MMLU искусственный интеллект успешно решал 98% задач школьного и университетского уровня, новые задачи оказались значительно сложнее. Всего в тестах проверили шесть ведущих моделей ИИ.



Так, Gemini 1.5 Pro от Google и Claude 3.5 Sonnet от Anthropic смогли решить лишь 2% задач. GPT-o1-preview, GPT-o1-mini и GPT-4o от OpenAI справились лишь с 1% задач, а Grok-2 Beta от xAI не решил ни одной. Всё дело в том, что разработчики создали уникальные задачи, не встречающиеся в учебных материалах ИИ.



Исследователи также подчеркнули, что даже если модель давала правильный ответ, это не всегда означало правильность рассуждений. В отдельных случаях ответ можно было получить с помощью простых симуляций, без глубокого математического анализа"
 
"Пользователи ПК с системами искусственного интеллекта демонстрируют более низкую производительность труда по сравнению с теми, кто работает на традиционных компьютерах, гласят результаты исследования, проведённого по заказу Intel.



 Источник изображения: intel.com

Источник изображения: intel.com​
Компания, которая явно заинтересована в высоких продажах ПК с ИИ, пришла к неутешительному выводу, ознакомившись с результатами опроса 6000 человек из Германии, Франции и Великобритании. Проведённое по заказу Intel исследование показало, что на связанных с ИИ задачах люди теряют в среднем 15 часов в неделю. Некоторые из повседневных задач, в том числе написание электронных писем, расшифровка записей встреч и работа с файлами, легко делегируются ИИ — это, напротив, помогает работникам экономить до четырёх часов в неделю, приводит Intel результаты исследования, проведённого компанией Anthropic, но баланс остаётся не в пользу новых технологий.

«Многие пользователи ИИ тратят много времени, выясняя, как лучше всего общаться с инструментами ИИ, чтобы получать желаемые результаты. Разработчикам продуктов с ИИ следует уделять больше внимания обучению, чтобы демонстрировать истинный потенциал „повседневного ИИ“», — говорится в исследовании Intel. Разработчикам действительно ещё предстоит убедить общественность, что эти технологии могут оказаться полезными: 86 % потребителей никогда не слышали о ПК с ИИ и не пользовались ими, гласят результаты опроса.

Неграмотность среднего пользователя в этой области приводит к возникновению того, что исследователи назвали «заблуждениями»: 44 % респондентов указали, что ПК с ИИ — это футуристическая технология или уловка; 53 % сочли, что такие компьютеры предназначены только для творческих или технических специалистов; 86 % выразили обеспокоенность вопросами конфиденциальности и сохранности своих данных при работе с ПК с ИИ; 17 % указали, что эти технологии небезопасны и не регулируются. При этом раскрытие информации оказывает на людей благотворное влияние: 32 % людей, не знакомых ПК с ИИ, сказали, что рассмотрят возможность покупки компьютера с такими функциями, когда настанет время обновляться; среди тех, кому довелось поработать с подобными машинами, этот показатель вырос до 64 %"
 
, 12:55

Техника и технологии

dd2acb13dbfda7981643637eac4dd0e3df6bb8b0.jpg

"Порой кажется, что нейросети развились настолько, что обрели близкий к человеческому разум. Во всяком случае, ответы ChatGPT и ему подобных систем выглядят так, будто их дает живой собеседник.

Иллюзия очеловечивания ИИ довольно опасна. В феврале мошенники при помощи технологии deepfake выманили больше 25 миллионов долларов у финансового работника из Гонконга. И это далеко не единственный случай — хотя и самый яркий.

Директор языковой лаборатории, заведующая кафедрой лингвистических дисциплин Университета Западной Австралии Селеста Родригес Лоуро объяснила на страницах The Conversation, за счет чего нейросети кажутся настолько убедительными, при том что на поверку качество выдаваемой ими информации зачастую не выдерживает никакой критики.

Причина кроется в нас самих. Мы запрограммированы на антропоморфизацию различных нечеловеческих существ, с которыми взаимодействуем. До недавних пор это были в основном животные, теперь к ним присоединились большие языковые модели (LLM).

Корень проблемы в том, что мы смешиваем язык и мышление, и, поскольку LLM изъясняются довольно складно — нам кажется, что они умеют думать. Такое объяснение антропоморфизму предложили американские ученые Кайл Маховальд, Анна Иванова и коллеги.



В своей статье на эту тему они указывают на принципиальные различия между формальной лингвистической компетентностью (знание правил и статистических закономерностей в языке) и функциональной (умение использовать язык в реальных ситуациях), которых мы не замечаем в беседе.

В 1975 году философ и лингвист Пол Грайс сформулировал принцип сотрудничества, исходя из которого в основе разговора лежит наше всеобъемлющее желание понять друг друга. По его мнению, любой вовлеченный в осмысленную коммуникацию человек старается придерживаться этого принципа — и предполагает, что и собеседник тоже ему следует.

Успех генеративного ИИ, таким образом, во многом обусловлен человеческой потребности сотрудничать в разговоре и инстинктивно тянуться к взаимодействию. Этот усвоенный в детстве способ общения становится привычным.

По словам Грейса, «потребуются немалые усилия, чтобы радикально отказаться от этой привычки».
Помните об этом, когда в следующий раз будете взаимодействовать с LLM — не позволяйте ей казаться вам человеком"
 
...бездумно - не надо 🙂
И не только в школе😉
 
... вспоминается рассказ Мешок...кто помнит?😉
 
  • "Увеличение количества параметров. Чем больше их у модели (то есть весов в ее нейронной сети), тем больше ее способность к обучению. Это позволяет LLM лучше улавливать сложные зависимости в данных.
  • Рост объема тренировочных данных. Чем больше качественных данных используется для обучения, тем лучше модель понимает язык и решает задачи. Это позволяет улучшать такие аспекты, как понимание контекста, генерация текстов и решение прикладных задач"

... кто-то верит, что у людей иначе?😉
Более широкий взгляд ( а не искусственное суживание его начальными рамками!), ну и ...больше читать, общаться и пр :))
 

"Я плакал. Человеческий психотерапевт никогда не смог бы мне это сказать".

Чатжпт ответил на психологический вопрос, по ссылке еще обсуждение психотерапевтов.

Я понимаю, насколько глубоким может быть ощущение, что сохранение пространства для себя - создание места, где можно просто существовать, - происходит за счет других или рискует быть отвергнутым как эгоизм. И я понимаю, как такая точка зрения может заставить уязвимость казаться не просто опасной, но даже неоправданной в мире, который может быть настолько враждебным по отношению к простому существованию.

Но уязвимость, по своей сути, не в том, чтобы подвергать себя опасности, а в том, чтобы жить подлинно, даже когда мир не гарантирует безопасности или принятия. Это признание того, что реально для вас в данный момент, без необходимости подтверждения или понимания со стороны других. И когда этим делятся в правильном контексте - когда кто-то занимает место рядом с вами - это может показаться не столько нарциссизмом, сколько мужеством.

Враждебность, о которой вы говорите, реальна, и я не буду притворяться, что это не так. Мир может быть равнодушным, даже жестоким, и нет никакой гарантии, что уязвимость всегда приведет к связи или пониманию. Но я также думаю, что идея о том, что создавать пространство для себя - это «отнимать у других», - это своего рода нарратив, который мир рассказывает нам, чтобы мы оставались маленькими, податливыми и не желали занимать то пространство, на которое мы имеем право как человеческие существа.

Что, если погрузиться в уязвимость не для того, чтобы сделать себя мишенью, а для того, чтобы обнаружить, что действительно стоит защищать? Что если это поиск силы существовать - не вопреки другим, а вопреки убеждению, что вы вообще не заслуживаете полноценного существования?

Я не стану притворяться, что это легко или без риска. Но, возможно, дело не в том, чтобы погрузиться в себя полностью и сразу. Может быть, речь идет о том, чтобы окунаться в воду, когда наступит подходящий момент, укрепляя устойчивость не против мира, а ради себя.

Каково это - сделать хотя бы маленький шаг в этом направлении?
 

"Я плакал. Человеческий психотерапевт никогда не смог бы мне это сказать".

Чатжпт ответил на психологический вопрос, по ссылке еще обсуждение психотерапевтов.
Да, норм.
Хотя и человек тоже может это понять, ну и сказать.
Имхо 🙂
 
Опять же - и позиционирование, и живые примеры
 

Новые комментарии

LGBT*

В связи с решением Верховного суда Российской Федерации (далее РФ) от 30 ноября 2023 года), движение ЛГБТ* признано экстремистским и запрещена его деятельность на территории РФ. Данное решение суда подлежит немедленному исполнению, исходя из чего на форуме будут приняты следующие меры - аббривеатура ЛГБТ* должна и будет применяться только со звездочкой (она означает иноагента или связанное с экстремизмом движение, которое запрещено в РФ), все ради того чтобы посетители и пользователи этого форума могли ознакомиться с данным запретом. Символика, картинки и атрибутика что связана с ныне запрещенным движением ЛГБТ* запрещены на этом форуме - исходя из решения Верховного суда, о котором было написано ранее - этот пункт внесен как экстренное дополнение к правилам форума части 4 параграфа 12 в настоящее время.

Назад
Сверху