• Внимание, на некоторое время вводится премодерация новичков.

Нейросети и смежное :)

То есть - в одном воркфлоу можно работать сразу с несколькими разными образами?!
Норм, интересно!!
 
То есть - в одном воркфлоу можно работать сразу с несколькими разными образами?!
Норм, интересно!!
Надо промпт менять немного - какой персонаж вы хотите получить, а ворфлоу остается тот-же. Иногда сеть глючит - например в какой-то момент она решила рисовать двух девочек, (и даже трех один раз).
 
Поставил на комп оламу и гемму 3 12b




12 миллиардов параметров, на больше не хватает платы. Раньше не хотел ставить тк есть чат а на бытовой плате вряд-ли что-то серьезное пойдет. Но я хотел найти переводчик и она переводит в целом не хуже чата, даже может лучше в плане стиля, единственное что - из-за маленького контекстного окна ей нужно давать текст частями, тк она начинает глючить на большом тексте. Та-же история была и с чатом (только его хватало намного больше) то есть получается что если слишком много вести с сетью диалог то когда контекстное окно заполняется она начинает глючить.

В качестве учителя французского работает плохо, начала с того что перепутала и стала мне давать предложения на французском для перевода -то есть поняла с точностью до наоборот.

1755094492377.webp
 
Оказывается и более крупные сети могут пойти на бытовой плате, но медленнее

View: https://www.reddit.com/r/ollama/comments/1mjo9ki/best_models_under_16gb/


Поставил gpt-oss:20b и qwen3:14b

Чат 20 миллиардов параметров работает, но думает долго, так что лучше что-то поменьше

Вот перевод чатом

У меня есть MacBook M4 Pro с 16 ГБ оперативной памяти, поэтому я составил список лучших моделей, которые должны подойти под него. Я буду использовать llama.cpp без графического интерфейса для максимальной эффективности, но даже так некоторые из этих квантов могут оказаться слишком большими, чтобы в них поместилось достаточно места для токенов рассуждений и контекста – я новичок.



Ниже представлены самые хорошие модели и их кванты, рассчитанные на память менее 16 ГБ, по моим исследованиям, но я ещё их не тестировал:



Лучшие модели для рассуждений



Модель Квант Размер (GB)

Qwen3‑32B IQ3_XXS 12.8

Qwen3‑30B‑A3B‑Thinking‑2507 IQ3_XS 12.7

Qwen 14B Q6_K_L 12.50

gpt‑oss‑20b — 12

Phi‑4‑reasoning‑plus Q6_K_L 12.3

Лучшие модели без рассуждений



Модель Квант Размер (GB)

gemma‑3‑27b IQ4_XS 14.77

Mistral‑Small‑3.2‑24B‑Instruct‑2506 Q4_K_L 14.83

gemma‑3‑12b Q8_0 12.5

Мои сценарии использования



Точная резюме стенограмм встреч.

Создание анонимизированной/цензурированной версии документа, удаляя конфиденциальную информацию, но сохраняя всё остальное без изменений.

Вопросы о выживании в условиях отсутствия интернета (например, кемпинг). Для этой задачи я думаю, что MedGemma‑27b‑text будет интересен.

Я отдаю приоритет максимальной точности и интеллектуальности, а не скорости. Как вы оцениваете мой список и кванты для моих сценариев? Я пропустил какую‑то модель или что‑то неправильно? Есть ли советы, как добиться лучшей производительности с llama.cpp на MacBook M4 Pro с 16 ГБ?
 
Оказывается и более крупные сети могут пойти на бытовой плате, но медленнее

View: https://www.reddit.com/r/ollama/comments/1mjo9ki/best_models_under_16gb/


Поставил gpt-oss:20b и qwen3:14b

Чат 20 миллиардов параметров работает, но думает долго, так что лучше что-то поменьше

Вот перевод чатом
А интересная беседа
:))
Я бы тоже пожалуй спросил, что для 24Гб Vram и 64 оперативки лучше 🙂
 
gemma3:27b
>>> У меня компьютер с 24Гб Vram и 64 ОЗУ, какие модели более эффективны для локальнолго применения?
С вашим компьютером (24 ГБ VRAM и 64 ГБ ОЗУ) вы можете запускать довольно мощные локальные модели. Вот некоторые
из самых эффективных вариантов, сгруппированные по категориям и с учетом ваших ресурсов:

**1. Большие Языковые Модели (LLM) для чата и генерации текста:**

* **Mistral 7B (и производные):** Превосходная производительность при небольшом размере. Существуют множество
fine-tuned версий (например, OpenHermes 2.5 Mistral 7B, Nous Hermes 2 Mistral 7B) которые оптимизированы для
разных задач, таких как диалог, креативное письмо, или кодирование. Вам хватит VRAM для запуска с квантованием
Q4_K_M или Q5_K_M, что позволит добиться хорошего баланса между скоростью и качеством.
* **Llama 2 13B:** Более крупная модель, чем Mistral 7B, и способна выдавать более сложные и связные тексты.
Квантование Q4_K_M или Q5_K_M также подходит.
* **Llama 3 8B:** Новейшая модель от Meta, демонстрирующая отличную производительность. Она компактна и может
хорошо работать на вашем оборудовании, особенно с квантованием.
* **Mixtral 8x7B:** Более продвинутая модель, использующая Mixture of Experts (MoE) архитектуру. Это позволяет
ей достигать результатов, сравнимых с Llama 2 70B, при меньшем размере. Для комфортной работы может потребоваться
немного больше ОЗУ, особенно при больших контекстных окнах.
* **Solar 10.7B:** Еще одна интересная модель, демонстрирующая хорошую производительность и разумные требования
к ресурсам.
* **Phi-3 Mini 3.8B:** Очень компактная, но мощная модель, идеально подходящая для устройств с ограниченными
ресурсами. Она может работать даже на CPU, но с вашим GPU она покажет отличные результаты.

**2. Модели для генерации изображений:**

* **Stable Diffusion XL (SDXL):** Флагманская модель для генерации изображений с высоким разрешением. 24 ГБ
VRAM позволяют вам использовать SDXL без особых ограничений, включая различные расширения и LoRA.
* **SD 1.5:** Более старая, но все еще популярная модель. Она требует меньше ресурсов, чем SDXL, и может быть
хорошим выбором, если вам нужна более быстрая генерация.
* **DeepFloyd IF:** Альтернативная модель для генерации изображений, известная своим качеством и
реалистичностью.
* **LCM LoRA (Low-Rank Adaptation):** Это не отдельная модель, а метод, который значительно
ускоряет процесс генерации изображений в Stable Diffusion. С LCM LoRA вы можете генерировать изображения за
несколько секунд.

**3. Мультимодальные модели (текст + изображение):**

* **LLaVA:** Объединяет языковую модель и модель компьютерного зрения, позволяя отвечать на вопросы о
изображениях. Особенно хорошо работает с Llama 2 в качестве основы.
* **IDEFICS:** Еще одна мультимодальная модель, способная понимать и генерировать текст и изображения.

**Программы для запуска моделей:**

* **LM Studio:** Простой в использовании графический интерфейс для запуска LLM. Он автоматически загружает и
настраивает модели, а также предоставляет удобный чат-интерфейс.
* **Oobabooga's Text Generation Web UI:** Более продвинутый веб-интерфейс с большим количеством настроек и
расширений.
* **KoboldAI:** Ориентирован на креативное письмо и ролевые игры.
* **Automatic1111/stable-diffusion-webui:** Самый популярный веб-интерфейс для Stable Diffusion.
* **InvokeAI:** Еще один мощный веб-интерфейс для Stable Diffusion.

**Рекомендации по квантованию:**

Квантование – это процесс уменьшения размера модели путем снижения точности чисел, используемых для представления
ее параметров. Это позволяет снизить требования к VRAM и ОЗУ, но может незначительно повлиять на качество.

* **Q4_K_M:** Хороший компромисс между размером и качеством.
* **Q5_K_M:** Более высокое качество, но требует больше ресурсов.
* **Q8_0:** Наивысшее качество, но требует больше всего ресурсов.

**Важные моменты:**

* **Контекстное окно:** Контекстное окно определяет максимальную длину текста, который может обрабатывать
модель. Большее контекстное окно позволяет модели лучше понимать и генерировать более связные тексты, но требует
больше ресурсов.
* **GPU Offloading:** Используйте возможности GPU offloading, чтобы максимально использовать вашу видеокарту и
снизить нагрузку на CPU и ОЗУ.
* **Экспериментируйте:** Не бойтесь экспериментировать с разными моделями, квантованиями и настройками, чтобы
найти оптимальный вариант для ваших задач.

**С чего начать:**

1. **LM Studio:** Установите LM Studio и попробуйте разные модели, такие как Mistral 7B, Llama 3 8B, или Phi-3
Mini 3.8B.
2. **Stable Diffusion Web UI:** Установите Automatic1111 и попробуйте SDXL или SD 1.5.
3. **Oobabooga's Text Generation Web UI:** Если вам нужен более продвинутый интерфейс с большим количеством
настроек, попробуйте Oobabooga.

Удачи в исследовании мира локальных моделей!
 
А интересная беседа
:))
Я бы тоже пожалуй спросил, что для 24Гб Vram и 64 оперативки лучше 🙂
У вас должны хорошо работать чат и гемма 27b. Так-же хорошая сеть qwen3, тоже думающая как и чат (гемма оказывается нет, отсюда наверно и странные траблы в переводе время от времени). Думающая сеть перед переводом анализирует текст, а потом начинает переводить. -

Okay, I need to translate this entire text from English to Russian without any abbreviations. Let me start by reading through the original text carefully to understand the context and the key points. The speaker is Dr. Orion Taraban, discussing the concept of creating a monster in relationships, using an example of a child's tantrum and applying it to adult relationships. The main ideas are about poor selection in relationships, the consequences of rewarding bad behavior, and the three options men have when dealing with problematic relationships.

First, I'll translate each paragraph, making sure to preserve the meaning and the nuances. I need to be careful with terms like "creating a monster," which is a metaphor here. I should find an appropriate Russian equivalent that conveys the same idea. Also, the example with the child in the store is crucial, so I need to ensure that the scenario is clear in Russian.

I should check for any idiomatic expressions or phrases that might not translate directly. For instance, "no bueno" is a Spanish phrase, but in the context, it's used to emphasize that the situation is not good. I'll translate it as "не очень хорошо" to maintain the tone.

The book title "The Value of Others" should remain in English with a translation in parentheses, as it's a proper noun. Also, the links and resources mentioned at the end need to be accurately translated, ensuring that terms like "ebook," "audiobook," and "paperback" are correctly rendered in Russian.

I need to maintain the formal yet conversational tone of the original, as the speaker is addressing the audience directly. Words like "my friends" should be translated to "друзья мои" to keep the personal address. Also, phrases like "check them out" should be translated in a way that's natural in Russian, perhaps "посмотрите их" or "ознакомьтесь с ними."

I'll go through each section step by step, translating sentence by sentence, and then review the entire text to ensure consistency and accuracy. It's important that the translation flows naturally in Russian, avoiding literal translations that might sound awkward. For example, "contingencies trump communication" can be translated as "последствия важнее общения"
 

1755194385099.webp
 

LGBT*

В связи с решением Верховного суда Российской Федерации (далее РФ) от 30 ноября 2023 года), движение ЛГБТ* признано экстремистским и запрещена его деятельность на территории РФ. Данное решение суда подлежит немедленному исполнению, исходя из чего на форуме будут приняты следующие меры - аббривеатура ЛГБТ* должна и будет применяться только со звездочкой (она означает иноагента или связанное с экстремизмом движение, которое запрещено в РФ), все ради того чтобы посетители и пользователи этого форума могли ознакомиться с данным запретом. Символика, картинки и атрибутика что связана с ныне запрещенным движением ЛГБТ* запрещены на этом форуме - исходя из решения Верховного суда, о котором было написано ранее - этот пункт внесен как экстренное дополнение к правилам форума части 4 параграфа 12 в настоящее время.

Назад
Сверху