SuperMem Agent
Vi utvecklade en lokal skrivbordsapp för dokumentintensiva team med semantisk sökning, AI-chatt baserad på deras egen kunskapsbas och versionshistorik i git-stil – utan molnlagring.

Utmaning
Teamet arbetade dagligen med stora mängder dokument och behövde snabbt kunna hitta rätt information. De saknade effektiv sökbarhet, tydlig versionshistorik och en AI-lösning som kunde använda deras egna filer utan att data skickades till externa molntjänster. Kraven på datakontroll och spårbarhet var höga.
Utmaning
Teamet arbetade dagligen med stora mängder dokument och behövde snabbt kunna hitta rätt information. De saknade effektiv sökbarhet, tydlig versionshistorik och en AI-lösning som kunde använda deras egna filer utan att data skickades till externa molntjänster. Kraven på datakontroll och spårbarhet var höga.
Lösning
Vi tog fram SuperMem Agent – en Electron-baserad skrivbordsapplikation med lokal backend. Lösningen bygger på en inkorgsbaserad pipeline där filer automatiskt övervakas, processas och indexeras med konfigurerbara inbäddningsmodeller (lokala eller OpenAI). Vi implementerade semantisk sökning med möjlighet till reranking samt en AI-assistent som alltid grundar sina svar i det lokala indexet. För att säkerställa full spårbarhet utvecklade vi en git-liknande commit-historik för dokument, vilket gör det möjligt att söka och chatta mot valfri tidigare version. All konfiguration – inklusive val av inbäddningsmodell, LLM-leverantör, inkorgssökväg och sökparametrar – hanteras via inställningar.
Lösning
Vi tog fram SuperMem Agent – en Electron-baserad skrivbordsapplikation med lokal backend. Lösningen bygger på en inkorgsbaserad pipeline där filer automatiskt övervakas, processas och indexeras med konfigurerbara inbäddningsmodeller (lokala eller OpenAI). Vi implementerade semantisk sökning med möjlighet till reranking samt en AI-assistent som alltid grundar sina svar i det lokala indexet. För att säkerställa full spårbarhet utvecklade vi en git-liknande commit-historik för dokument, vilket gör det möjligt att söka och chatta mot valfri tidigare version. All konfiguration – inklusive val av inbäddningsmodell, LLM-leverantör, inkorgssökväg och sökparametrar – hanteras via inställningar.
Resultat
Ledningen fick snabbare och mer relevanta svar direkt från sina egna dokument, full spårbarhet över ändringar och en AI-assistent som arbetar strikt inom deras egen datamiljö. Kärnflödet är helt lokalt, vilket möter deras krav på datasäkerhet och kontroll.
Resultat
Ledningen fick snabbare och mer relevanta svar direkt från sina egna dokument, full spårbarhet över ändringar och en AI-assistent som arbetar strikt inom deras egen datamiljö. Kärnflödet är helt lokalt, vilket möter deras krav på datasäkerhet och kontroll.
