Hirdetés

2024. június 2., vasárnap

Gyorskeresés

Hozzászólások

(#1) BBorg


BBorg
tag

Kíváncsi vagyok mennyi tárhely kell egy ilyen nyelvi modell offline futtatásához.

(#2) Ribi válasza BBorg (#1) üzenetére


Ribi
nagyúr

Egy telefon mikor offline? ;]

(#3) Acélfarkas válasza Ribi (#2) üzenetére


Acélfarkas
senior tag

Offline szerintem ilyen dolog nem működne.

Rep. üzemmódban pl.

[ Szerkesztve ]

"Nem kérdőjeleztem meg, hogy hülyeséget mondasz!"

(#4) haxiboy válasza BBorg (#1) üzenetére


haxiboy
veterán

Artisjus kedveli ezt ;]

Premium Mining Rigek és Gamer/Workstation gépek: tőlem, nektek :)

(#5) #52931072 válasza Acélfarkas (#3) üzenetére


#52931072
törölt tag

Ó dehogynem, amikor már lezabálta a fércbúk a mobilnetedet, sms-t még tudsz majd diktálni. Eltárol pár giga reklámot is, ha megnyitod a böngészőt, a promó még betöltődik, ha az oldal nem is jön be. Eltárolja a telemetriát is, amit továbbít amikor megint online leszel. Nyugi ezt ők már nagyon kitalálták helyettünk.
A szolgáltatók is annyira cukik. A t például ingyen ad 50 megát, amikor elfogyott netkeretem. Majdnem sikerült bejutnom a netbankba, azzal el is fogyott. Nem volt fél pörc az egész.

(#6) Acélfarkas válasza #52931072 (#5) üzenetére


Acélfarkas
senior tag

Annak amit leírtál, semmi köze a nyelvi modellhez. A facebook már régen ezt csinálja, ehhez nem kell nyelvi modell. Ahhoz hogy a nyelvi modell működőképes legyen, kell a brutális teljesítményű hardver és szoftver háttér, ami működteti ezeket. Qualcomm rakhat ehhez támogatást a chipjeibe, de ezt a hátteret az nem fogja tudni biztosítani offline módban.

"Nem kérdőjeleztem meg, hogy hülyeséget mondasz!"

(#7) LordX válasza BBorg (#1) üzenetére


LordX
veterán

A LLaMA 2 legkisebb változata 7 B paraméter, szóval kb. 7 GiB tárhely int8 paraméterekkel. Ha tudnak 4 bites quanization-t, akkor kb. 3,5 GiB.

(#8) Mentolka


Mentolka
senior tag

Miaza nyelvi modell? S miaza Llama? Már kettő van belőle?
Nagyon lemaradtam valamiről...

(#9) ddekany válasza LordX (#7) üzenetére


ddekany
veterán

Tegyük hozzá, az a tárhely az RAM (és az csak a modellnek). Illetve 7B-s LLaMA praktikusan nem sok mindenre lehet jó. Elvégre ChatGPT 3.5-nél jóval butább dologra kell gondolni, és már az is eléggé meh praktikusan (mondjuk annál jobb, mint ami látszik, mert a "biztonság" miatt le van hülyítve).

(#10) Mp3Pintyo válasza ddekany (#9) üzenetére


Mp3Pintyo
aktív tag

Azért annyira nem rosszak az értékei:
https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
Amúgy meg naponta jön ki új modell tehát mire ebből lenne valami addigra már úgyis sokkal jobbak lesznek a modellek. Azért nem kevés számítási kapacitás és VRAM kell ezekhez. Kíváncsi vagyok mit fognak produkálni a telók.

https://www.youtube.com/mp3pintyo AI, Mesterséges Intelligencia, Képkészítés tutorialok, bemutatók

(#11) haxiboy válasza Mp3Pintyo (#10) üzenetére


haxiboy
veterán

Csak a modell létrehozásához kell rengeteg ram/vram. Futtatáshoz nem kell túl nagy erőforrás. GPT4All-t tesztelgettem nemrég egy raspberry pi-n, kényelmesen elfut.
A nyelvi modellek közül ha valami nagyon komolyat szeretnél akkor 8gb hely kell.

Premium Mining Rigek és Gamer/Workstation gépek: tőlem, nektek :)

(#12) ddekany válasza haxiboy (#11) üzenetére


ddekany
veterán

Annyira nem eszik forrón a kását. Egy igazi ChatGPT 4-hez sokszáz giga (talán terra) VRAM-ot igényel, és brutál A100-asokon sem fürge. A szénné optimalizálás kategóriában a csúcs amiről kb. hihető/objektív tesztet láttam, az a 13 milliárd paraméteres Orca (még a zárt változata), ami azt hiszem FP16 volt, szóval akkor 26G VRAM. Azt talán ChatGPT 3.5 szint (ami kb 180 milliárd paraméteres FP16, tehát ahhoz képest viszont durva tömörödés). És a ChatGPT 3.5 gyakorlatban még nem túl hasznos, kb. csak tech demó. A ChatGPT 4-re is bőven ráférne még az okosodás, és attól még hízni fog az alap (vagy kevésébé lesz zömíthető). Ja, és belső dialógus még nincs, rendes külső memória integráció sincs, szóval az egész "Chat" széria kb. GAI alkatrész demó. A belső dialógus és még egy és más hiányzik még, és ebből csak a belső dialógussal már irgalmatlan lassú lenne szerveren is.

Na most nem állítom, hogy 10-20 év múlva nem fog elférni valami nálunk okosabb zsebben... Bár szvsz az halál, mert hát ennyi kontrollálhatatlan majom egy rakás Einsteinnel a zsebében nem fér meg egy bolygón.

(#13) Mp3Pintyo válasza ddekany (#12) üzenetére


Mp3Pintyo
aktív tag

Az utolsó mondat mindent visz. Valóban ez lesz az egyik legnagyobb probléma :D

https://www.youtube.com/mp3pintyo AI, Mesterséges Intelligencia, Képkészítés tutorialok, bemutatók

Copyright © 2000-2024 PROHARDVER Informatikai Kft.