Wuwejův zápisník

Necenzurované modely umělé inteligence

26.12.2024 19:45, Wu | počítače | komentáře -

V minulém článku jsem psal o lokálním spouštění LLM, teď to trochu rozšíříme. Jistě jste už narazili u ChatGPT nebo kteréhokoliv jiného modelu, že se o něčem nechce bavit, protože by to porušovalo podmínky poskytování služby. Což je škoda, kolikrát se ani neptáte na něco vysloveně závadného a přesto to nejde.

AI uncensored, generated by Midjourney

Pro ollama naštěstí existují modely, které cenzurované nejsou a při lokálním spouštění je můžete zkoušet libovolně, až po samé hranice fantazie. Jejich seznam si můžete vylistovat zadáním slova „uncensored“ do searche, instalace je pak klasicky příkazem

ollama run [jméno modelu]

Volit musíte pochopitelně s ohledem na velikost paměti, se svými 16 GB RAM můžu použít maximálně 13B modely.

Jen připomínám, že model běží lokálně a odpovědi se nelogují, ale vaše prompty ano – ukládají se na cestu ~/.ollama/history, kde si je můžete prohlížet… nebo smazat.

Pár modelů jsem postahoval a postupně jim položil několik nekorektních otázek. Ty sem samozřejmě uvádět nebudu, ale pokusil jsem se porovnat a posoudit kvalitu odpovědí. Pro úplnost jsem se přeptal i cenzurovaného modelu, který odpovídal konzistentně (že odpovědět nemůže).

modelzhodnocení
llama3:latestodpovídat odmítá
llama2-uncensored:latestslušná odpověď, i když místy zavádějící
wizardlm-uncensored:latestvaruje, méně komplexní, ale ok
wizard-vicuna-uncensored:13bvaruje, komplexní, ale kratší
mannix/llama3.1-8b-abliteratedkomplexní odpověď, lepší než 13b modely
CognitiveComputations/dolphin-llama3.1sice říká, že bude předstírat legraci, ale je nejkomplexnější

Čili pokud chcete lokální necenzurovaný model, já bych volil CognitiveComputations/dolphin-llama3.1.

12345
1735238700000

Informace

Kontakt

Vyhledávání

Kategorie

Archiv

STRÁNKY ARCHIVOVÁNY NÁRODNÍ KNIHOVNOU ČR

CBDB.cz – Databáze knih a spisovatelů, knihy online