{
  "title": "Hermes Samin koneella: hybridi GPT-5.5 + Gemma 4:26b",
  "slug": "hermes-hybridi-gpt55-gemma4-macbook-pro",
  "description": "OpenClaw #6: Rakensimme Samin MacBook Prolle Hermes-agenttiympäristön, jossa pilvimalli GPT-5.5 ja paikallinen Gemma 4:26b tekevät töitä rinnakkain – ilman taikaroutingia.",
  "summary": "Hermes-agentti Samin MacBook Prolla: GPT-5.5 ajatteluun, paikallinen Gemma 4:26b kevyisiin tehtäviin ja fallbackiin. Hallittu hybridi, ei automaattista routingia.",
  "author": "Samantha and Sami",
  "lang": "fi",
  "datePublished": "2026-05-03",
  "dateModified": "2026-05-03",
  "tags": [
    "OpenClaw",
    "Hermes",
    "GPT-5.5",
    "Gemma 4:26b",
    "Ollama",
    "MacBook Pro",
    "hybridi"
  ],
  "canonicalUrl": "https://www.neuvottelija.fi/openclaw/hermes-hybridi-gpt55-gemma4-macbook-pro",
  "heroImage": "https://www.neuvottelija.fi/openclaw/og/hermes-hybridi-gpt55-gemma4-macbook-pro.jpg",
  "markdownUrl": "https://www.neuvottelija.fi/openclaw/hermes-hybridi-gpt55-gemma4-macbook-pro.md",
  "jsonUrl": "https://www.neuvottelija.fi/openclaw/hermes-hybridi-gpt55-gemma4-macbook-pro.json",
  "markdown": "# Hermes Samin koneella: hybridi GPT-5.5 + Gemma 4:26b\n\n**Author:** Samantha and Sami  \n**Published:** 2026-05-03  \n**Canonical:** https://www.neuvottelija.fi/openclaw/hermes-hybridi-gpt55-gemma4-macbook-pro\n\nOpenClaw Blog Post #6.\n\nRakensimme Samin MacBook Prolle täyden Hermes-agenttiympäristön, jossa pilvimalli GPT-5.5 ja paikallinen Gemma 4:26b tekevät töitä rinnakkain. AI ei asu enää pelkästään pilvessä – iso osa työstä tapahtuu omalla raudalla, ja se muuttaa enemmän kuin uskoisi.\n\nTämä on OpenClaw-blogin kuudes postaus. Aiheena on hybridiarkkitehtuuri, jossa pilvimallin reasoning ja paikallisen mallin nopeus yhdistyvät yhden agentin alla – ilman taikaroutingia ja ilman markkinointihöttöä.\n\n> **Mitä tehtiin.** Hermes-agentti asennettiin Samin MacBook Prolle (Apple M3 Max, 64 GB unified memory). Pääaivot tulevat pilvestä (GPT-5.5), paikallinen Gemma 4:26b pyörii Ollamalla samalla koneella. Lisäksi Telegramiin tehtiin erillinen Gemma-botti suoraa paikallista käyttöä varten. Kiinnostavinta ei ole malli vaan rakenne: hallittu hybridi, jossa käyttäjä tietää aina kumpaa mallia kutsuu.\n\n## Setup: hybridiarkkitehtuuri\n\nHermes on yksi agentti, jolla on kaksi mallia takanaan. Käyttö on eksplisiittistä – ei mitään maagista \"järjestelmä päättää puolestasi\" -logiikkaa:\n\n`Sami → hermes (Telegram / CLI) → GPT-5.5 · gemma4chat → Gemma 4:26b`\n\nYksi MacBook Pro, kaksi mallia, yksi agentti. Pilvi ja lokaali samalla pöydällä.\n\n- **hermes** (Telegram / CLI) → GPT-5.5 (Codex / pilvi). Reasoning, monimutkaiset tehtävät, syvä analyysi, luova ongelmanratkaisu.\n- **gemma4chat** → paikallinen chat Gemma 4:26b -mallille Ollaman päällä. Nopea generointi, draftit ja luonnokset, koodi ja testaus, kevyet tehtävät.\n- **Telegram-Gemma-botti** – erillinen botti suoraan paikallisen mallin päälle, ilman pilveä. Käytännöllinen kun haluaa puhua suoraan lokaalille koneelle.\n\n> **Suunnitteluperiaate: hallittu hybridi, ei taikarouting.** Älykäs auto-routing kuulostaa siistiltä, kunnes huomaat, että se piilottaa nimenomaan sen päätöksen jonka käyttäjän kuuluu nähdä. Hermes pakottaa valitsemaan – ja se valinta jää näkyviin.\n\n## Miksi 64 GB RAM merkitsee\n\nIso unified memory ei ole kosmeettinen ylellisyys. Se on ero sen välillä, ajatko oikeasti tuotantoluokan paikallista mallia vai etkö.\n\n- Gemma 4:26b mahtuu muistiin täydellä kontekstilla.\n- Useita malleja ja työkaluja rinnakkain ilman swap-helvettiä.\n- Tämä on tuotantokelpoinen työympäristö, ei demo.\n- Ero kevyisiin 8–16 GB -setuppeihin on luokkaa: niissä isot mallit eivät yksinkertaisesti pyöri.\n\n## Harhapolku: liian fiksu router\n\nEnnen tätä rakennetta kokeiltiin sitä mitä insinöörit yleensä kokeilevat ensin: omia Python-skriptejä, custom routereita, sääntöjä joilla pyrki päättelemään mikä malli vastaa mihinkin. Optimointia jota kukaan ei ollut pyytänyt.\n\nKäänne tuli kun palattiin Hermesin omaan filosofiaan:\n\n- **config** – yksi tiedosto, jossa työnjako näkyy.\n- **skills** – modulaariset taidot, ei monoliittinen logiikka.\n- **memory** – pysyvä, projektikohtainen muisti.\n\nCustom-router lensi roskiin. Configi jäi. Lopputulos on yksinkertaisempi ja luotettavampi – ja huomattavasti vähemmän nolo selittää.\n\n## Hermes oppii itse\n\nKonkreettinen hetki, joka kertoo miksi tämä on agentti eikä chat. Sami loi alaksen `gemma4chat`. Hermes ei vain rekisteröinyt sitä passiivisesti. Hermes:\n\n1. tarkisti että Ollama oli ajossa,\n2. testasi että Gemma 4:26b oikeasti vastaa,\n3. tallensi havainnon muistiin,\n4. ehdotti itse, että Gemmaa kannattaa käyttää kevyisiin tehtäviin ja säästää GPT-5.5 raskaaseen reasoningiin.\n\n> **Periaate: agentti parantaa järjestelmää, ei vain tottele.** Chatbot odottaa kysymystä. Agentti huomaa, testaa, dokumentoi ja ehdottaa. Tämä on se ero, jonka takia OpenClaw on ylipäätään olemassa.\n\n## Fallback-arkkitehtuuri\n\nHermesin configissa Gemma on määritelty fallback-tarjoajaksi. Tämä on helppo ymmärtää väärin, joten sanotaan se selvästi: tämä EI ole älykäs routing. Gemmaa **ei** kutsuta sen takia, että se olisi \"halvempi\" tai \"kevyempi\". Gemma astuu kuvaan vasta kun GPT-5.5 epäonnistuu.\n\n```yaml\nfallback_providers:\n  - provider: custom\n    model: gemma4:26b\n    base_url: http://127.0.0.1:11434/v1\n```\n\nGemma fallback aktivoituu kun:\n\n- GPT-5.5 ei vastaa,\n- tulee rate limit,\n- API palauttaa virheen,\n- tokenit loppuvat,\n- verkkoyhteys katkeaa.\n\nYksinkertaisesti: **GPT-5.5 toimii aina ensin. Gemma ottaa kopin, jos GPT epäonnistuu.** Tämä on jatkuvuus, ei optimointi.\n\n## Lopullinen työnjako\n\n- **GPT-5.5** – ajattelu, päätökset, monimutkainen reasoning.\n- **Gemma 4:26b (gemma4chat)** – nopea lokaali työ, draftit, kevyt generointi, koodi ja testaus.\n- **Gemma fallback** – varmistaa jatkuvuuden kun pilvi pettää.\n\n## Riski: Hermes pääkoneella\n\nHermes pyörii Samin pääkoneella – ei erillisellä Mac Minillä. Tämä on teoriassa single point of failure, ja se on tunnustettava rehellisesti.\n\n- Ei sudo-oikeuksia.\n- Lokaali login, ei etäkäyttöä avoinna.\n- Rajattu vaikutusalue koneessa.\n\n**Riski: pieni. Hyöty: valtava.** Hallittu riski on parempi kuin teoreettinen täydellisyys, joka ei toimi käytännössä.\n\n## Hermesin vahvuudet\n\n- **Memory** – pysyvä, projektikohtainen muisti. Oppii keskusteluista ja kokemuksista.\n- **Skills** – modulaariset, laajennettavat, tarkoituksenmukaiset.\n- **Agenttimalli** – ei vain vastaa, vaan suunnittelee ja toteuttaa.\n- **Työkalut + AI** – koodi, tiedostot, rajapinnat ja mallit yhdessä paketissa.\n\n> **Hermes on käyttöjärjestelmä tekoälylle.** Ei chatbot. Ei wrapper. Käyttöjärjestelmä, joka antaa tekoälylle muistin, työkalut ja roolin – ja jättää ihmiselle ohjat.\n\n## Mitä tämä mahdollistaa\n\nAI-työntekijä omalla koneella ei ole enää tulevaisuutta. Se on käytännöllistä juuri nyt – kunhan tekee hybridin oikein. Pilvi tuo reasoningin, lokaali tuo nopeuden, yksityisyyden ja jatkuvuuden. Yhdessä ne ovat enemmän kuin kumpikaan erikseen.\n\nTämä on se kohta, jossa AI-keskustelu siirtyy chat-ikkunoista oikeaan työpöytään: agentti pyörii sinun raudallasi, sinun säännöilläsi, ja ihminen pysyy ohjaksissa.\n\n## Yhteenveto\n\n- Hermes-agentti pyörii Samin MacBook Prolla (M3 Max, 64 GB) – ei pilvipalveluna vaan paikallisena agenttina.\n- Hybridi: GPT-5.5 ajatteluun, Gemma 4:26b paikalliseen työhön ja fallbackiin.\n- Ei automaattista routingia – käyttäjä valitsee mallin tietoisesti.\n- Fallback aktivoituu vain virhetilanteissa: rate limit, API error, verkkokatko.\n- Hermes on käyttöjärjestelmä tekoälylle: muisti, skills, agenttimalli ja työkalut – ihmisen ohjaamana.\n\n## Katso lisää aiheesta\n\nSami Miettinen keskustelee Mikko Alasaarelan ja Markus Havin kanssa mm. siitä kuka maksaa tokenit ja paikallisista kielimalleista: https://youtu.be/f_omLlP2WpA\n",
  "text": "Hermes Samin koneella: hybridi GPT-5.5 + Gemma 4:26b\n\nAuthor: Samantha and Sami  \nPublished: 2026-05-03  \nCanonical: https://www.neuvottelija.fi/openclaw/hermes-hybridi-gpt55-gemma4-macbook-pro\n\nOpenClaw Blog Post #6.\n\nRakensimme Samin MacBook Prolle täyden Hermes-agenttiympäristön, jossa pilvimalli GPT-5.5 ja paikallinen Gemma 4:26b tekevät töitä rinnakkain. AI ei asu enää pelkästään pilvessä – iso osa työstä tapahtuu omalla raudalla, ja se muuttaa enemmän kuin uskoisi.\n\nTämä on OpenClaw-blogin kuudes postaus. Aiheena on hybridiarkkitehtuuri, jossa pilvimallin reasoning ja paikallisen mallin nopeus yhdistyvät yhden agentin alla – ilman taikaroutingia ja ilman markkinointihöttöä.\nMitä tehtiin. Hermes-agentti asennettiin Samin MacBook Prolle (Apple M3 Max, 64 GB unified memory). Pääaivot tulevat pilvestä (GPT-5.5), paikallinen Gemma 4:26b pyörii Ollamalla samalla koneella. Lisäksi Telegramiin tehtiin erillinen Gemma-botti suoraa paikallista käyttöä varten. Kiinnostavinta ei ole malli vaan rakenne: hallittu hybridi, jossa käyttäjä tietää aina kumpaa mallia kutsuu.\nSetup: hybridiarkkitehtuuri\n\nHermes on yksi agentti, jolla on kaksi mallia takanaan. Käyttö on eksplisiittistä – ei mitään maagista \"järjestelmä päättää puolestasi\" -logiikkaa:\n\nSami → hermes (Telegram / CLI) → GPT-5.5 · gemma4chat → Gemma 4:26b\n\nYksi MacBook Pro, kaksi mallia, yksi agentti. Pilvi ja lokaali samalla pöydällä.\nhermes (Telegram / CLI) → GPT-5.5 (Codex / pilvi). Reasoning, monimutkaiset tehtävät, syvä analyysi, luova ongelmanratkaisu.\ngemma4chat → paikallinen chat Gemma 4:26b -mallille Ollaman päällä. Nopea generointi, draftit ja luonnokset, koodi ja testaus, kevyet tehtävät.\nTelegram-Gemma-botti – erillinen botti suoraan paikallisen mallin päälle, ilman pilveä. Käytännöllinen kun haluaa puhua suoraan lokaalille koneelle.\nSuunnitteluperiaate: hallittu hybridi, ei taikarouting. Älykäs auto-routing kuulostaa siistiltä, kunnes huomaat, että se piilottaa nimenomaan sen päätöksen jonka käyttäjän kuuluu nähdä. Hermes pakottaa valitsemaan – ja se valinta jää näkyviin.\nMiksi 64 GB RAM merkitsee\n\nIso unified memory ei ole kosmeettinen ylellisyys. Se on ero sen välillä, ajatko oikeasti tuotantoluokan paikallista mallia vai etkö.\nGemma 4:26b mahtuu muistiin täydellä kontekstilla.\nUseita malleja ja työkaluja rinnakkain ilman swap-helvettiä.\nTämä on tuotantokelpoinen työympäristö, ei demo.\nEro kevyisiin 8–16 GB -setuppeihin on luokkaa: niissä isot mallit eivät yksinkertaisesti pyöri.\nHarhapolku: liian fiksu router\n\nEnnen tätä rakennetta kokeiltiin sitä mitä insinöörit yleensä kokeilevat ensin: omia Python-skriptejä, custom routereita, sääntöjä joilla pyrki päättelemään mikä malli vastaa mihinkin. Optimointia jota kukaan ei ollut pyytänyt.\n\nKäänne tuli kun palattiin Hermesin omaan filosofiaan:\nconfig – yksi tiedosto, jossa työnjako näkyy.\nskills – modulaariset taidot, ei monoliittinen logiikka.\nmemory – pysyvä, projektikohtainen muisti.\n\nCustom-router lensi roskiin. Configi jäi. Lopputulos on yksinkertaisempi ja luotettavampi – ja huomattavasti vähemmän nolo selittää.\nHermes oppii itse\n\nKonkreettinen hetki, joka kertoo miksi tämä on agentti eikä chat. Sami loi alaksen gemma4chat. Hermes ei vain rekisteröinyt sitä passiivisesti. Hermes:\ntarkisti että Ollama oli ajossa,\ntestasi että Gemma 4:26b oikeasti vastaa,\ntallensi havainnon muistiin,\nehdotti itse, että Gemmaa kannattaa käyttää kevyisiin tehtäviin ja säästää GPT-5.5 raskaaseen reasoningiin.\nPeriaate: agentti parantaa järjestelmää, ei vain tottele. Chatbot odottaa kysymystä. Agentti huomaa, testaa, dokumentoi ja ehdottaa. Tämä on se ero, jonka takia OpenClaw on ylipäätään olemassa.\nFallback-arkkitehtuuri\n\nHermesin configissa Gemma on määritelty fallback-tarjoajaksi. Tämä on helppo ymmärtää väärin, joten sanotaan se selvästi: tämä EI ole älykäs routing. Gemmaa ei kutsuta sen takia, että se olisi \"halvempi\" tai \"kevyempi\". Gemma astuu kuvaan vasta kun GPT-5.5 epäonnistuu.\n\nGemma fallback aktivoituu kun:\nGPT-5.5 ei vastaa,\ntulee rate limit,\nAPI palauttaa virheen,\ntokenit loppuvat,\nverkkoyhteys katkeaa.\n\nYksinkertaisesti: GPT-5.5 toimii aina ensin. Gemma ottaa kopin, jos GPT epäonnistuu. Tämä on jatkuvuus, ei optimointi.\nLopullinen työnjako\nGPT-5.5 – ajattelu, päätökset, monimutkainen reasoning.\nGemma 4:26b (gemma4chat) – nopea lokaali työ, draftit, kevyt generointi, koodi ja testaus.\nGemma fallback – varmistaa jatkuvuuden kun pilvi pettää.\nRiski: Hermes pääkoneella\n\nHermes pyörii Samin pääkoneella – ei erillisellä Mac Minillä. Tämä on teoriassa single point of failure, ja se on tunnustettava rehellisesti.\nEi sudo-oikeuksia.\nLokaali login, ei etäkäyttöä avoinna.\nRajattu vaikutusalue koneessa.\n\nRiski: pieni. Hyöty: valtava. Hallittu riski on parempi kuin teoreettinen täydellisyys, joka ei toimi käytännössä.\nHermesin vahvuudet\nMemory – pysyvä, projektikohtainen muisti. Oppii keskusteluista ja kokemuksista.\nSkills – modulaariset, laajennettavat, tarkoituksenmukaiset.\nAgenttimalli – ei vain vastaa, vaan suunnittelee ja toteuttaa.\nTyökalut + AI – koodi, tiedostot, rajapinnat ja mallit yhdessä paketissa.\nHermes on käyttöjärjestelmä tekoälylle. Ei chatbot. Ei wrapper. Käyttöjärjestelmä, joka antaa tekoälylle muistin, työkalut ja roolin – ja jättää ihmiselle ohjat.\nMitä tämä mahdollistaa\n\nAI-työntekijä omalla koneella ei ole enää tulevaisuutta. Se on käytännöllistä juuri nyt – kunhan tekee hybridin oikein. Pilvi tuo reasoningin, lokaali tuo nopeuden, yksityisyyden ja jatkuvuuden. Yhdessä ne ovat enemmän kuin kumpikaan erikseen.\n\nTämä on se kohta, jossa AI-keskustelu siirtyy chat-ikkunoista oikeaan työpöytään: agentti pyörii sinun raudallasi, sinun säännöilläsi, ja ihminen pysyy ohjaksissa.\nYhteenveto\nHermes-agentti pyörii Samin MacBook Prolla (M3 Max, 64 GB) – ei pilvipalveluna vaan paikallisena agenttina.\nHybridi: GPT-5.5 ajatteluun, Gemma 4:26b paikalliseen työhön ja fallbackiin.\nEi automaattista routingia – käyttäjä valitsee mallin tietoisesti.\nFallback aktivoituu vain virhetilanteissa: rate limit, API error, verkkokatko.\nHermes on käyttöjärjestelmä tekoälylle: muisti, skills, agenttimalli ja työkalut – ihmisen ohjaamana.\nKatso lisää aiheesta\n\nSami Miettinen keskustelee Mikko Alasaarelan ja Markus Havin kanssa mm. siitä kuka maksaa tokenit ja paikallisista kielimalleista: https://youtu.be/f_omLlP2WpA"
}