Pomocí AI měníme firemní data v konkurenční výhodu
Pomáháme firmám získat náskok díky umělé inteligenci (nejen) při práci s daty. BigHub od roku 2016 vytváří AI strategie, pomáhá klientům s datovým inženýrstvím nebo připravuje AI řešení na míru.
.avif)



AI řešení na míru
Hledáte vlastní řešení AI? Poskytujeme komplexní služby s odbornými znalostmi v aplikované umělé inteligenci, včetně funkcí Gen AI, jako jsou znalostní báze a asistenti. Naši odborníci se také specializují na strojové učení pro předpovídání poptávky, křížový prodej/upselling atd.
AI strategie a konzultace
BigHub vaší firmě pomůže odemknout potenciál umělé inteligence, a to identifikací ideálního použití, posouzením příležitostí a vytvořením strategie šité na míru, která bude mít skutečný obchodní dopad. Kompletně za vás vyřešíme také starosti související se zaváděním regulace AI Act.
Služby datového inženýrství
Co kdybyste mohli mít nákladově efektivní, škálovatelná řešení, která rostou s vaším podnikáním? Specializujeme se na podnikové datové platformy, optimalizaci cloudové infrastruktury a posílení schopností datového inženýrství.
Naším cílem je viditelný dopad AI na váš byznys
V čem je spolupráce s BigHub jedinečná?
Business-first přístup

Data a AI jako software

Dlouhodobé partnerství

AI řešení dodáváme klientům napříč obory
Podívejte se, které konkrétní problémy pomáháme řešit klientům z různých odvětvích.
Fraud detection in logistics

Solution for unauthorized electricity theft

Enhancing demand prediction in retail

Automation of manual insurance processes

Improving the precision of patient diagnostics in healthcare

Co si klienti cení o BigHubu
Přečtěte si hodnocení od našich důvěryhodných obchodních partnerů.
Takto díky AI posouváme firmy napříč různými obory kupředu
Výsledky jsou víc než slova. Přečtěte si, jak a s čím jsme pomohli konkrétním klientům.
Jsme hrdí na náš příběh oceněný veřejností
Co o BigHub píší média a kdo o nás mluví.


„Český BigHub se nebojí velkých dat ani velkých výzev.“
Firma BigHub, založená v roce 2016, se specializuje na špičkové datové technologie a pomáhá inovovat firmy napříč odvětvími.

„ČEZ spojil síly s BigHub, aby využil sílu umělé inteligence“
BigHub vznikl ve chvíli, kdy velké firmy neuměly efektivně využít AI. Dnes patří k nejrychleji rostoucím firmám v regionu.


Napište si o nezávaznou konzultaci zdarma
Chcete s námi probrat podrobnosti? Vyplňte krátký formulář níže a my se vám brzy ozveme, abychom si s vámi domluvili termín nezávazné online konzultace zdarma.
.avif)
Novinky ze světa BigHub a umělé inteligence
Zjistěte a inspirujte se, co je nového v oblasti dat a umělé inteligence.

Jak vytvořit inteligentní vyhledávání: Od fulltextu k hybridnímu vyhledávání s optimalizací
Problém: Limity tradičního vyhledávání
Tradiční fulltextové vyhledávání, založené na algoritmech jako BM25, má několik zásadních omezení:
1. Překlepy a variace
- Uživatelé často píší dotazy s překlepy nebo používají různé varianty názvů
- Tradiční vyhledávání vyžaduje přesnou shodu nebo velmi podobný text
2. Vyhledávání pouze v názvech
- Fulltextové vyhledávání typicky hledá pouze v konkrétních polích (například název produktu nebo entity)
- Pokud je relevantní informace v popisu nebo v souvisejících entitách, systém ji nenajde
3. Chybějící sémantické porozumění
- Systém nerozpozná synonyma nebo související koncepty
- Například dotaz "auto" nenajde výsledky obsahující "automobil" nebo "vůz", i když jde o stejný koncept
- Mezijazyčné vyhledávání je téměř nemožné – český dotaz nenajde anglické výsledky
4. Kontextové vyhledávání
- Uživatelé často hledají podle kontextu, ne přesných názvů
- Například dotaz "produkty od výrobce X" by měl najít všechny relevantní produkty, i když název výrobce není explicitně uveden v dotazu
Řešení: Hybridní vyhledávání s embeddingy
Řešením je kombinace dvou přístupů: tradičního fulltextového vyhledávání (BM25) a vektorových embeddingů pro sémantické vyhledávání.
Vektorové embeddingy pro sémantické porozumění
Vektorové embeddingy převádějí text do vícerozměrného prostoru, kde podobné významy jsou blízko sebe. To umožňuje:
- Vyhledávání podle významu: Dotaz "notebook" najde výsledky obsahující "laptop", "přenosný počítač" nebo dokonce související koncepty
- Mezijazyčné vyhledávání: Český dotaz může najít anglické výsledky, pokud mají podobný význam
- Kontextové vyhledávání: Systém rozumí vztahům mezi entitami a koncepty
- Vyhledávání v celém obsahu: Embeddingy mohou být vytvořeny z celého dokumentu, nejen z názvu
Proč embeddingy samotné nestačí
I když jsou embeddingy mocným nástrojem, samy o sobě nejsou dostatečné:
- Překlepy: Vektorové embeddingy mohou mít problém s překlepy, protože malá změna v textu může vést k odlišnému embeddingu
- Přesné shody: Někdy chceme najít přesnou shodu názvu, což fulltextové vyhledávání dělá lépe
- Výkon: Vektorové vyhledávání může být pomalejší než optimalizované fulltextové indexy
Hybridní přístup: BM25 + HNSW
Ideální řešení kombinuje oba přístupy:
- BM25 (Best Matching 25): Tradiční fulltextový algoritmus, který exceluje v přesných shodách a zpracování překlepů
- HNSW (Hierarchical Navigable Small World): Efektivní algoritmus pro vyhledávání v prostoru vektorů, který umožňuje rychlé nalezení nejbližších sousedů v embedding prostoru
Kombinací těchto dvou přístupů získáme to nejlepší z obou světů: přesnost fulltextového vyhledávání pro přesné shody a sémantické porozumění embeddingů pro kontextové dotazy.
Výzva: Správné seřazení výsledků
Najít relevantní výsledky je jen první krok. Stejně důležité je je správně seřadit. Uživatelé typicky klikají na první několik výsledků, takže špatné seřazení může výrazně snížit užitečnost vyhledávání.
Proč samotné seřazení (sort by) nestačí
Jednoduché seřazení podle jednoho kritéria (například data) není dostatečné, protože potřebujeme zohlednit více faktorů současně:
- Relevance: Jak dobře výsledek odpovídá dotazu (z fulltextového i vektorového vyhledávání)
- Obchodní hodnota: Výsledky s vyšší marží by měly být výše
- Čerstvost: Novější položky jsou často relevantnější než staré
- Popularita: Populárnější položky mohou být pro uživatele zajímavější
Scoring funkce: Kombinace více faktorů
Místo jednoduchého "sort by" potřebujeme komplexní scoring systém, který kombinuje:
- Fulltextové skóre: Jak dobře výsledek odpovídá dotazu podle BM25
- Vektorové distance: Sémantická podobnost podle embeddingů
- Scoring funkce:
- Magnitude funkce pro marži/popularitu (vyšší hodnoty = vyšší skóre)
- Freshness funkce pro čas (novější = vyšší skóre)
- Další obchodní metriky podle potřeby
Výsledné skóre je pak vážená kombinace všech těchto faktorů. Problém je, že správné váhy nejsou zřejmé a musíme je najít experimentálně.
Hyperparameter search: Hledání optimálních vah
Správné nastavení vah pro fulltextové vyhledávání, vektorové embeddingy a scoring funkce je kritické pro kvalitu výsledků. Tento proces se nazývá hyperparameter search.
Vytvoření testovacího datasetu
Základem úspěšného hyperparameter search je kvalitní testovací dataset. Vytvoříme dataset dotazů, u kterých přesně víme, jak by měly vypadat ideální výsledky:
- Referenční výsledky: Pro každý testovací dotaz máme seznam očekávaných výsledků v správném pořadí
- Anotace: Každý výsledek je označen jako relevantní nebo nerelevantní, případně s prioritou
- Reprezentativní vzorky: Dataset by měl pokrývat různé typy dotazů (přesné shody, synonyma, překlepy, kontextové dotazy)
Metriky pro hodnocení kvality
Abychom mohli objektivně posoudit, zda jsou výsledky dobré, potřebujeme metriky, které porovnávají skutečné výsledky s referenčními:
1. Kontrola úplnosti (Recall)
- Obsahují výsledky vše, co by měly obsahovat?
- Jsou všechny relevantní položky přítomny v seznamu výsledků?
2. Kontrola pořadí (Ranking Quality)
- Jsou výsledky ve správném pořadí?
- Jsou nejrelevantnější výsledky na prvních místech?
Mezi konkrétní metriky patří například NDCG (Normalized Discounted Cumulative Gain), která hodnotí jak úplnost, tak správné pořadí výsledků. Další užitečné metriky zahrnují Precision@K (kolik relevantních výsledků je v prvních K pozicích) nebo MRR (Mean Reciprocal Rank), která měří pozici prvního relevantního výsledku.
Iterativní optimalizace
Proces hyperparameter search probíhá iterativně:
- Nastavení počátečních vah: Začneme s rozumnými výchozími hodnotami
- Testování kombinací: Systematicky testujeme různé kombinace vah pro:
- Váhy fulltextových polí (například název produktu vs. popis)
- Váhy vektorových polí (embeddingy pro různé části dokumentu)
- Boost hodnoty pro scoring funkce (marže, čas, popularita)
- Agregační funkce (jak kombinovat různé scoring funkce)
- Hodnocení výsledků: Pro každou kombinaci spustíme vyhledávání na testovacím datasetu a vypočítáme metriky
- Výběr nejlepších parametrů: Vybereme kombinaci s nejlepšími metrikami
- Refinování: Pokud je to potřeba, zúžíme rozsah testování kolem nejlepších hodnot a opakujeme proces
Tento proces může být časově náročný, ale je nezbytný pro dosažení optimálních výsledků. Automatizace tohoto procesu umožňuje testovat stovky nebo tisíce kombinací parametrů a najít ty nejlepší.
Sledování a iterativní zlepšování
I po optimalizaci parametrů je důležité systém kontinuálně sledovat a zlepšovat.
Sledování chování uživatelů
Klíčovou metrikou je, zda uživatelé klikají na výsledky, které jim systém nabízí. Pokud uživatel neklikne na první výsledek, ale až na třetí nebo čtvrtý, je to signál, že seřazení není optimální.
Co sledovat:
- Click-through rate (CTR): Kolik uživatelů klikne na výsledky
- Pozice kliknutí: Na které pozici uživatelé klikají (ideálně by měli klikat na první výsledky)
- Dotazy bez kliknutí: Dotazy, na které uživatelé vůbec nekliknou, mohou indikovat špatné výsledky
Analýza problémových případů
Když identifikujeme dotazy, kde uživatelé neklikají na první výsledky, měli bychom:
- Zaznamenat tyto případy: Uložit dotaz, vrácené výsledky a pozici, na kterou uživatel klikl
- Analyzovat: Proč systém vrátil špatné pořadí? Chybí relevantní výsledky? Jsou na špatných pozicích?
- Přidat do testovacího datasetu: Tyto případy by měly být součástí našeho testovacího datasetu pro budoucí optimalizace
- Upravit váhy: Na základě analýzy můžeme upravit váhy nebo přidat nová pravidla
Tento iterativní proces zajišťuje, že systém se neustále zlepšuje a přizpůsobuje se skutečnému chování uživatelů.
Implementace na Azure: AI Search a OpenAI Embeddings
Všechny tyto komponenty můžeme efektivně implementovat pomocí služeb Microsoft Azure.
Azure AI Search
Azure AI Search (dříve Azure Cognitive Search) poskytuje:
- Hybridní vyhledávání: Nativní podpora pro kombinaci fulltextového (BM25) a vektorového vyhledávání
- HNSW indexy: Efektivní implementace HNSW algoritmu pro vektorové vyhledávání
- Scoring profiles: Flexibilní systém pro definování vlastních scoring funkcí
- Text weights: Možnost nastavit váhy pro různá fulltextová pole
- Vector weights: Možnost nastavit váhy pro různá vektorová pole
Azure AI Search umožňuje definovat scoring profiles, které kombinují:
- Magnitude scoring funkce pro numerické hodnoty (marže, popularita)
- Freshness scoring funkce pro časové hodnoty (datum vytvoření, datum aktualizace)
- Text weights pro fulltextová pole
- Vector weights pro vektorová pole
- Agregační funkce pro kombinování různých scoring funkcí
OpenAI Embeddings
Pro vytváření embeddingů používáme OpenAI Embeddings, konkrétně modely jako text-embedding-3-large:
- Kvalitní embeddingy: OpenAI modely poskytují vysoce kvalitní embeddingy, které dobře fungují i pro češtinu
- Konzistentní API: Jednoduchá integrace s Azure AI Search
- Škálovatelnost: OpenAI API zvládne velké objemy požadavků
OpenAI embeddingy jsou zvlášť vhodné pro češtinu, protože byly trénovány na vícejazyčných datech a poskytují dobré výsledky i pro menší jazyky.
Integrace
Azure AI Search umožňuje přímo použít OpenAI embeddingy jako vectorizer, což zjednodušuje integraci. Můžeme definovat vektorová pole v indexu, která automaticky používají OpenAI pro vytváření embeddingů při indexování dokumentů.

Microsoft Ignite 2025: Posun od AI experimentů k firemním agentům nové generace
1. AI agenti přechází do hlavní role
Hlavním oznámením Microsoftu byl Agent 365, který staví AI agenty do role nové provozní vrstvy digitálního pracovního prostředí. Nabízí centrální místo pro registraci, monitoring, zabezpečení a koordinaci agentů napříč organizací.
Zároveň Microsoft 365 Copilot představil dedikované agenty pro Microsoft Word, Excel a PowerPoint – schopné autonomně generovat, restrukturalizovat a analyzovat obsah podle firemního kontextu.

Proč je to důležité
Uživatelé se posouvají od „ptaní se AI“ k „zadávání práce AI“. Agentní architektury postupně nahradí mnoho jednoúčelových copilotů.
Co mohou firmy udělat
- identifikovat workflow vhodné pro autonomní agenty
- standardizovat chování a oprávnění agentů
- rozhodnout, které workflows je vhodné pro Agent 365
- spustit pilotní nasazení v rámci Microsoft 365
2. Integrace a orchestrace se stávají nezbytností
Microsoft také zdůraznil interoperabilitu skrze Model Context Protocol (MCP). Agenti v Microsoft Teams, Microsoft 365 i třetích stranách mohou sdílet kontext a provádět koordinované vícekrokové workflow.
Proč je to důležité
Skutečná automatizace vyžaduje orchestraci nástrojů, datových zdrojů a týmů – ne izolované asistenty.
Co mohou firmy udělat
- zmapovat workflow napříč aplikacemi
- propojit nástroje produktivity s CRM/ERP a dalšími systémy
- navrhnout agentní ekosystém místo samostatných botů
3. Governance a bezpečnost v popředí
S rostoucí autonomií agentů Microsoft přinesl nové governance možnosti:
- přehled o oprávněních agentů
- monitoring jejich chování
- integrace s Microsoft Defender, Entra a Purview
- centrální řízení politik
- ochrana proti úniku dat
Oficiální Microsoft článek se všemi novinkami ohledně bezpečnostních novinek - Link
Proč je to důležité
AI ve velkém měřítku musí být plně dohledatelná, bezpečná a v souladu s regulacemi.
Co mohou firmy udělat
- definovat, kdo může agenty vytvářet a upravovat
- nastavit auditní a monitorovací standardy
- vytvořit bezpečnostní mantinely ještě před širokým nasazením
4. Windows, Cloud PC a vzestup AI-first pracovního prostředí
Microsoft prezentoval Windows 11 a Windows 365 jako klíčové komponenty pracovního prostředí připraveného na AI. Novinky zahrnují:
- AI-vylepšené Cloud PC
- podporu sdílených a frontline zařízení
- lokální inference agentů na podporovaném hardware
- automatizaci na úrovni endpointu
Proč je to důležité
Distribuované týmy získají konsistentní a bezpečné prostředí s nativní AI podporou.
Co mohou firmy udělat
- zhodnotit využití Cloud PC ve svém prostředí
- modernizovat digitální workplace pro AI workflow
- zvážit AI-ready zařízení pro provozní týmy
5. AI infrastruktura a vývoj Azure
Microsoft Ignite přinesl další posun v Azure AI, včetně:
- rychlejšího a stabilnějšího hostingu a verzování modelů
- hybridního CPU/GPU inferencování
- efektivnějších deployment pipeline
- úspornějšího fine-tuningu
- vylepšené governance trénovacích datasetů
Celý report najdete zde - Link
Proč je to důležité
Robustní datová a modelová infrastruktura je základem pro agentní ekosystém.
Co mohou firmy udělat
- modernizovat datovou architekturu pro AI-ready stav
- implementovat vektorové vyhledávání a RAG pipeline
- optimalizovat náklady na provoz modelů
6. Copilot Studio a ekosystém pluginů se výrazně rozšiřují
Copilot Studio prošlo výraznou modernizací a posunulo se směrem k centrálnímu integračnímu a automatizačnímu nástroji. Novinky zahrnují:
- vizuální tvorbu vlastních agentů
- no-code vícekrokové workflow
- pluginy propojené s interními API
- lepší grounding a práci s podnikovými daty
- rozšířenou sadu konektorů pro CRM/ERP/event platformy
Proč je to důležité
Firmy mohou vytvořit oborové asistenty napojené na interní systémy a procesy.
Co mohou firmy udělat
- vyvíjet specializované copiloty pro konkrétní role a oddělení
- integrovat stávající systémy skrze konektory
- využívat vizuální logiku pro rychlé prototypy
7. Propojení Fabric a Azure AI na nové úrovni
Microsoft Fabric přidal výrazné AI funkce:
- hlubší propojení s Azure AI Studio
- automatizované pipeline pro přípravu dat pro AI
- vektorové indexy a RAG v rámci OneLake
- posílenou datovou lineage a governance
- lepší výkon analytiky ve velkém měřítku
Proč je to důležité
AI agenti potřebují čistá, aktuální a dobře spravovaná data. Fabric umožňuje vytvořit a spravovat konsolidované prostředí pro data i AI.
Co mohou firmy udělat
- konsolidovat roztříštěné pipeline do Fabricu
- implementovat interní znalostní vyhledávání pomocí RAG
- vytvářet governance-ready AI datasety
Co to znamená pro firmy
Napříč všemi novinkami je jasné, že AI se stává provozní vrstvou, nikoli doplňkem.
Firmy by měly počítat s tím, že:
- přichází přesun od experimentů k reálnému nasazení
- multi-agentní ekosystémy porostou rychleji
- governance je základní podmínka škálování
- propojení nástrojů a dat je zásadní
- AI bude součástí nástrojů, které lidé používají každý den
- konkurenční výhodu určí kvalita workflow, ne samotný model
Jak se připravit na rok 2026
Doporučené kroky:
1. Zmapujte workflow s vysokou hodnotou pro agentní automatizaci
Identifikujte opakované a mezi-týmové procesy, kde autonomní agenti přinášejí největší efekt.
2. Vytvořte governance framework pro agenty
Nastavte role, oprávnění, audit, monitoring a provozní dohled.
3. Připravte datovou infrastrukturu
Zajistěte kvalitní, spravovaná a přístupná data, která mohou agenti bezpečně využívat.
4. Integrujte produktivní nástroje
Propojte Microsoft Teams, Microsoft 365 a MCP-kompatibilní aplikace pro plynulý provoz.
5. Začněte pilotem
Vyberte jednu oblast nebo tým a otestujte agentní workflow pod dohledem.
6. Plánujte škálování
Po ověření guardrailů začněte agentní systém rozšiřovat do dalších částí firmy.

Od teorie k praxi: Jak BigHub připravuje studenty FJFI ČVUT na svět dat a AI
Propojení akademické sféry a praxe je klíčové
Od akademického roku 2021/2022 zde jako BigHub vyučujeme celosemestrální kurzy, které propojují akademickou půdu s reálným světem dat. A není to jen o přednáškách – studenti si sami vyzkouší, jak vypadá práce s daty v podnikovém prostředí, s reálnými technologiemi a pod vedením lidí, kteří podobné projekty řeší každý den.
Co nás na „Jaderku“ přivedlo
BigHub má k FJFI ČVUT osobní vztah. Mnozí z nás – včetně CEO Karla Šimánka, COO Ing. Tomáše Hubínka a více než deseti dalších – jsme na Jaderce sami studovali. Víme, že fakulta vychovává špičkové matematiky, fyziky a inženýry. Ale zároveň víme, že právě těmto studentům někdy chybí vhled do toho, jak svět dat a AI funguje v byznysu.
Proto jsme se rozhodli to změnit. Ne jako náborovou kampaň, ale jako dlouhodobý příspěvek českému školství. Chceme, aby studenti viděli reálné příklady, vyzkoušeli si moderní nástroje a lépe se připravili na start kariéry.
Dva předměty, dva semestry
18AAD – Aplikovaná analýza dat (letní semestr)
První předmět jsme otevřeli v akademickém roce 2021/2022. Vede ho Ing. Tomáš Hubínek a jeho cílem je dát studentům přehled o tom, jak vypadá práce s daty ve velkém měřítku. Mezi probíraná témata patří:
● organizace a ukládání dat,
● frameworky pro výpočty nad velkými daty,
● analýza grafů,
● cloudové služby,
● základy AI a ML.
Velký důraz klademe na praktická cvičení. Studenti pracují v prostředí Microsoft Azure, zkoušejí si různé technologie a mají prostor pro diskusi. Na vybrané přednášky zveme i další kolegy z BigHub, aby sdíleli zkušenosti z konkrétních projektů.
18BIG – Big Data nástroje a architektura (zimní semestr)
V roce 2024 jsme přidali druhý předmět, který na 18AAD volně navazuje. Výuku vedou doc. Ing. Jan Kučera, CSc. a doc. Ing. Petr Pokorný, Ph.D . Předmět jde více do hloubky a soustředí se na:
● data governance a práce s daty v organizaci,
● integrační architektury,
● datové platformy a příprava pro AI aplikace,
● best practices z reálných firemních projektů.
Zatímco 18AAD ukazuje, co vše se dá s daty dělat, kurz 18BIG učí a představuje, jak to reálně funguje ve firmě.
Nadstandardní zájem studentů
Volitelných předmětů FJFI se běžně účastní jen několik málo studentů. Na našekurzy se ale každý rok hlásí 20–35 studentů, což je na poměry fakulty nadstandard.
Zpětná vazba je konzistentní – studenti oceňují praktický přesah, otevřenost diskuse a možnost ptát se lidí z praxe na konkrétní situace. Pro mnohé jde o první kontakt s technologiemi, které firmy skutečně používají.
.jpeg)
Přesah do studijních programů
Naše role nekončí u přednášek. Společně s katedrou softwarového inženýrství jsme pomáhali revidovat studijní programy a profil absolventů. Fakulta tak může pružněji reagovat na to, co firmy v oblasti dat a AI potřebují. Díky tomu se posouvá kvalita vzdělávání celé fakulty, tedy nejen u studentů, kteří si zvolí naše volitelné předměty.
Není to o náboru
Občas se stane, že některý ze studentů najde cestu do BigHub, ale to není hlavní cíl. Jde o to, aby studenti po škole nebyli překvapení, jak se s daty skutečně pracuje. Chceme, aby měli širší a praktičtější znalosti a zkušenost s moderními nástroji. Dáváme tak něco zpět místu, které nás vychovalo, a věříme, že to pomůže celé české technologické scéně.
Spolupráce s FJFI není jen o výuce. Prakticky od vzniku BigHub podporujeme také studentskou unii a účastníme se sportovní akce Pohár děkana FJFI, kde každoročně hrajeme futsal, beach volejbal a další sporty. Letos jsme navíc společně s FJFI podali několik dotačních žádostí a věříme, že se brzy zapojíme do společných technických projektů. Razíme myšlenku, že silná komunita a neformální propojení studentů s lidmi z praxe jsou stejně důležité jako znalosti v učebnicích.

Co plánujeme dál?
Naše spolupráce s FJFI ČVUT je dlouhodobá. Kurzy 18AAD a 18BIG poběží i v dalších letech a přemýšlíme, jak rozšířit jejich záběr.
Vidíme, že studenti mají hlad po praktických zkušenostech a že propojení akademie s praxí funguje. Pokud se díky tomu v budoucnu zlepší kvalita datových a AI projektů v českých firmách, bude to nejlepší důkaz, že naše úsilí má smysl.















.webp)









