Naši partneři
bighub-official-partners-logo

Pomocí AI měníme firemní data v konkurenční výhodu

Pomáháme firmám získat náskok díky umělé inteligenci (nejen) při práci s daty. BigHub od roku 2016 vytváří AI strategie, pomáhá klientům s datovým inženýrstvím nebo připravuje AI řešení na míru.

Ověřeno 100+ enterprise firmami
AI řešení na míru

Hledáte vlastní řešení AI? Poskytujeme komplexní služby s odbornými znalostmi v aplikované umělé inteligenci, včetně funkcí Gen AI, jako jsou znalostní báze a asistenti. Naši odborníci se také specializují na strojové učení pro předpovídání poptávky, křížový prodej/upselling atd.

AI strategie a konzultace

BigHub vaší firmě pomůže odemknout potenciál umělé inteligence, a to identifikací ideálního použití, posouzením příležitostí a vytvořením strategie šité na míru, která bude mít skutečný obchodní dopad. Kompletně za vás vyřešíme také starosti související se zaváděním regulace AI Act.

Služby datového inženýrství

Co kdybyste mohli mít nákladově efektivní, škálovatelná řešení, která rostou s vaším podnikáním? Specializujeme se na podnikové datové platformy, optimalizaci cloudové infrastruktury a posílení schopností datového inženýrství.

Na čem nám záleží

Naším cílem je viditelný dopad AI na váš byznys

V čem je spolupráce s BigHub jedinečná?

Návratnost investice

Business-first přístup

Dodáváme řešení, která mají viditelný a měřitelný dopad na váš byznys. Pomůžeme vaší firmě zvýšit tržby, zrychlit růst nebo snížit chybovost.
Moderní přístup k datům

Data a AI jako software

K datům a umělé inteligenci přistupujeme jako k softwaru. Využíváme osvědčené metody, například API, DataOps, MLOps nebo LLMOps. Navíc se umíme zorientovat v náročném firemním prostředí.
Enduring commitment

Dlouhodobé partnerství

Po nasazení AI řešení zajišťujeme dlouhodobou podporu. Pomůžeme vám s dalším rozvojem strategie, kterou jsme na začátku společně nastavili.
Typické využití a spolupráce

AI řešení dodáváme klientům napříč obory

Podívejte se, které konkrétní problémy pomáháme řešit klientům z různých odvětvích.

Logistika

Fraud detection in logistics

Leveraging AI, we help you detect suspicious shipments in real time.
Energetika

Solution for unauthorized electricity theft

Our AI models analyze consumption patterns and identify suspicious usage.
Maloobchod

Enhancing demand prediction in retail

AI can analyze your historical sales data, seasonality, and trends.
Pojišťovnictví

Automation of manual insurance processes

With AI solution, we enable automation of insurance processes such as underwriting and claims handling.
Zdravotnictví

Improving the precision of patient diagnostics in healthcare

We ensure that AI alerts doctors to high-risk patients in a timely manner.
Logistika

Odhalování podvodů v logistice

Díky umělé inteligenci dokážeme v reálném čase odhalit podezřelé zásilky.
Energetika

Zamezení krádežím elektřiny

Naše AI modely sledují spotřebu a spolehlivě rozeznají neobvyklé využívání elektřiny.
Maloobchod

Přesnější predikce poptávky

AI analyzuje vaše historická prodejní data, sezónnost i nákupní trendy.
Pojištění

Automatizace procesů v pojišťovnictví

Pomocí AI řešení automatizujeme rutinní činnosti jako posuzování rizik nebo vyřizování pojistných událostí.
Zdravotnictví

Zlepšení diagnostiky pacientů

AI lékaře včas upozorňuje na rizika u jednotlivých pacientů a pomáhá tak zlepšit celkovou péči.
Reference

Co si klienti cení o BigHubu

Přečtěte si hodnocení od našich důvěryhodných obchodních partnerů.

Případové studie

Takto díky AI posouváme firmy napříč různými obory kupředu

Výsledky jsou víc než slova. Přečtěte si, jak a s čím jsme pomohli konkrétním klientům.

Napište si o nezávaznou konzultaci zdarma

Chcete s námi probrat podrobnosti? Vyplňte krátký formulář níže a my se vám brzy ozveme, abychom si s vámi domluvili termín nezávazné online konzultace zdarma.

Ověřeno 100 + firmami
Thank you! Your submission has been received.
Oops! Something went wrong.
Blog

Novinky ze světa BigHub a umělé inteligence

Zjistěte a inspirujte se, co je nového v oblasti dat a umělé inteligence.

AI
0
min
read

Jak vytvořit inteligentní vyhledávání: Od fulltextu k hybridnímu vyhledávání s optimalizací

Když jsme začali pracovat na pokročilém vyhledávacím systému, rychle jsme zjistili, že tradiční fulltextové vyhledávání má vážné limity. Uživatelé hledají zkratky, píší dotazy s překlepy, nebo používají synonyma, která tradiční vyhledávání nerozpozná. Navíc potřebujeme, aby systém vyhledával nejen v názvech entit, ale i v jejich popisech a souvisejících informacích. A co víc – uživatelé často hledají podle kontextu, například synonyma, nebo dokonce v různých jazycích. Tento článek popisuje, jak jsme vybudovali hybridní vyhledávací systém kombinující fulltextové vyhledávání (BM25) s vektorovými embeddingy, a jak jsme pomocí hyperparameter search optimalizovali scoring, abychom dosáhli nejlepších výsledků pro naše uživatele.
Problém: Limity tradičního vyhledávání

Tradiční fulltextové vyhledávání, založené na algoritmech jako BM25, má několik zásadních omezení:

1. Překlepy a variace

  • Uživatelé často píší dotazy s překlepy nebo používají různé varianty názvů
  • Tradiční vyhledávání vyžaduje přesnou shodu nebo velmi podobný text

2. Vyhledávání pouze v názvech

  • Fulltextové vyhledávání typicky hledá pouze v konkrétních polích (například název produktu nebo entity)
  • Pokud je relevantní informace v popisu nebo v souvisejících entitách, systém ji nenajde

3. Chybějící sémantické porozumění

  • Systém nerozpozná synonyma nebo související koncepty
  • Například dotaz "auto" nenajde výsledky obsahující "automobil" nebo "vůz", i když jde o stejný koncept
  • Mezijazyčné vyhledávání je téměř nemožné – český dotaz nenajde anglické výsledky

4. Kontextové vyhledávání

  • Uživatelé často hledají podle kontextu, ne přesných názvů
  • Například dotaz "produkty od výrobce X" by měl najít všechny relevantní produkty, i když název výrobce není explicitně uveden v dotazu

Řešení: Hybridní vyhledávání s embeddingy

Řešením je kombinace dvou přístupů: tradičního fulltextového vyhledávání (BM25) a vektorových embeddingů pro sémantické vyhledávání.

Vektorové embeddingy pro sémantické porozumění

Vektorové embeddingy převádějí text do vícerozměrného prostoru, kde podobné významy jsou blízko sebe. To umožňuje:

  • Vyhledávání podle významu: Dotaz "notebook" najde výsledky obsahující "laptop", "přenosný počítač" nebo dokonce související koncepty
  • Mezijazyčné vyhledávání: Český dotaz může najít anglické výsledky, pokud mají podobný význam
  • Kontextové vyhledávání: Systém rozumí vztahům mezi entitami a koncepty
  • Vyhledávání v celém obsahu: Embeddingy mohou být vytvořeny z celého dokumentu, nejen z názvu
Proč embeddingy samotné nestačí

I když jsou embeddingy mocným nástrojem, samy o sobě nejsou dostatečné:

  • Překlepy: Vektorové embeddingy mohou mít problém s překlepy, protože malá změna v textu může vést k odlišnému embeddingu
  • Přesné shody: Někdy chceme najít přesnou shodu názvu, což fulltextové vyhledávání dělá lépe
  • Výkon: Vektorové vyhledávání může být pomalejší než optimalizované fulltextové indexy
Hybridní přístup: BM25 + HNSW

Ideální řešení kombinuje oba přístupy:

  • BM25 (Best Matching 25): Tradiční fulltextový algoritmus, který exceluje v přesných shodách a zpracování překlepů
  • HNSW (Hierarchical Navigable Small World): Efektivní algoritmus pro vyhledávání v prostoru vektorů, který umožňuje rychlé nalezení nejbližších sousedů v embedding prostoru

Kombinací těchto dvou přístupů získáme to nejlepší z obou světů: přesnost fulltextového vyhledávání pro přesné shody a sémantické porozumění embeddingů pro kontextové dotazy.

Výzva: Správné seřazení výsledků

Najít relevantní výsledky je jen první krok. Stejně důležité je je správně seřadit. Uživatelé typicky klikají na první několik výsledků, takže špatné seřazení může výrazně snížit užitečnost vyhledávání.

Proč samotné seřazení (sort by) nestačí

Jednoduché seřazení podle jednoho kritéria (například data) není dostatečné, protože potřebujeme zohlednit více faktorů současně:

  • Relevance: Jak dobře výsledek odpovídá dotazu (z fulltextového i vektorového vyhledávání)
  • Obchodní hodnota: Výsledky s vyšší marží by měly být výše
  • Čerstvost: Novější položky jsou často relevantnější než staré
  • Popularita: Populárnější položky mohou být pro uživatele zajímavější
Scoring funkce: Kombinace více faktorů

Místo jednoduchého "sort by" potřebujeme komplexní scoring systém, který kombinuje:

  1. Fulltextové skóre: Jak dobře výsledek odpovídá dotazu podle BM25
  2. Vektorové distance: Sémantická podobnost podle embeddingů
  3. Scoring funkce:
    • Magnitude funkce pro marži/popularitu (vyšší hodnoty = vyšší skóre)
    • Freshness funkce pro čas (novější = vyšší skóre)
    • Další obchodní metriky podle potřeby

Výsledné skóre je pak vážená kombinace všech těchto faktorů. Problém je, že správné váhy nejsou zřejmé a musíme je najít experimentálně.

Hyperparameter search: Hledání optimálních vah

Správné nastavení vah pro fulltextové vyhledávání, vektorové embeddingy a scoring funkce je kritické pro kvalitu výsledků. Tento proces se nazývá hyperparameter search.

Vytvoření testovacího datasetu

Základem úspěšného hyperparameter search je kvalitní testovací dataset. Vytvoříme dataset dotazů, u kterých přesně víme, jak by měly vypadat ideální výsledky:

  • Referenční výsledky: Pro každý testovací dotaz máme seznam očekávaných výsledků v správném pořadí
  • Anotace: Každý výsledek je označen jako relevantní nebo nerelevantní, případně s prioritou
  • Reprezentativní vzorky: Dataset by měl pokrývat různé typy dotazů (přesné shody, synonyma, překlepy, kontextové dotazy)
Metriky pro hodnocení kvality

Abychom mohli objektivně posoudit, zda jsou výsledky dobré, potřebujeme metriky, které porovnávají skutečné výsledky s referenčními:

1. Kontrola úplnosti (Recall)

  • Obsahují výsledky vše, co by měly obsahovat?
  • Jsou všechny relevantní položky přítomny v seznamu výsledků?

2. Kontrola pořadí (Ranking Quality)

  • Jsou výsledky ve správném pořadí?
  • Jsou nejrelevantnější výsledky na prvních místech?

Mezi konkrétní metriky patří například NDCG (Normalized Discounted Cumulative Gain), která hodnotí jak úplnost, tak správné pořadí výsledků. Další užitečné metriky zahrnují Precision@K (kolik relevantních výsledků je v prvních K pozicích) nebo MRR (Mean Reciprocal Rank), která měří pozici prvního relevantního výsledku.

Iterativní optimalizace

Proces hyperparameter search probíhá iterativně:

  1. Nastavení počátečních vah: Začneme s rozumnými výchozími hodnotami
  2. Testování kombinací: Systematicky testujeme různé kombinace vah pro:
    • Váhy fulltextových polí (například název produktu vs. popis)
    • Váhy vektorových polí (embeddingy pro různé části dokumentu)
    • Boost hodnoty pro scoring funkce (marže, čas, popularita)
    • Agregační funkce (jak kombinovat různé scoring funkce)
  3. Hodnocení výsledků: Pro každou kombinaci spustíme vyhledávání na testovacím datasetu a vypočítáme metriky
  4. Výběr nejlepších parametrů: Vybereme kombinaci s nejlepšími metrikami
  5. Refinování: Pokud je to potřeba, zúžíme rozsah testování kolem nejlepších hodnot a opakujeme proces

Tento proces může být časově náročný, ale je nezbytný pro dosažení optimálních výsledků. Automatizace tohoto procesu umožňuje testovat stovky nebo tisíce kombinací parametrů a najít ty nejlepší.

Sledování a iterativní zlepšování

I po optimalizaci parametrů je důležité systém kontinuálně sledovat a zlepšovat.

Sledování chování uživatelů

Klíčovou metrikou je, zda uživatelé klikají na výsledky, které jim systém nabízí. Pokud uživatel neklikne na první výsledek, ale až na třetí nebo čtvrtý, je to signál, že seřazení není optimální.

Co sledovat:

  • Click-through rate (CTR): Kolik uživatelů klikne na výsledky
  • Pozice kliknutí: Na které pozici uživatelé klikají (ideálně by měli klikat na první výsledky)
  • Dotazy bez kliknutí: Dotazy, na které uživatelé vůbec nekliknou, mohou indikovat špatné výsledky
Analýza problémových případů

Když identifikujeme dotazy, kde uživatelé neklikají na první výsledky, měli bychom:

  1. Zaznamenat tyto případy: Uložit dotaz, vrácené výsledky a pozici, na kterou uživatel klikl
  2. Analyzovat: Proč systém vrátil špatné pořadí? Chybí relevantní výsledky? Jsou na špatných pozicích?
  3. Přidat do testovacího datasetu: Tyto případy by měly být součástí našeho testovacího datasetu pro budoucí optimalizace
  4. Upravit váhy: Na základě analýzy můžeme upravit váhy nebo přidat nová pravidla

Tento iterativní proces zajišťuje, že systém se neustále zlepšuje a přizpůsobuje se skutečnému chování uživatelů.

Implementace na Azure: AI Search a OpenAI Embeddings

Všechny tyto komponenty můžeme efektivně implementovat pomocí služeb Microsoft Azure.

Azure AI Search

Azure AI Search (dříve Azure Cognitive Search) poskytuje:

  • Hybridní vyhledávání: Nativní podpora pro kombinaci fulltextového (BM25) a vektorového vyhledávání
  • HNSW indexy: Efektivní implementace HNSW algoritmu pro vektorové vyhledávání
  • Scoring profiles: Flexibilní systém pro definování vlastních scoring funkcí
  • Text weights: Možnost nastavit váhy pro různá fulltextová pole
  • Vector weights: Možnost nastavit váhy pro různá vektorová pole

Azure AI Search umožňuje definovat scoring profiles, které kombinují:

  • Magnitude scoring funkce pro numerické hodnoty (marže, popularita)
  • Freshness scoring funkce pro časové hodnoty (datum vytvoření, datum aktualizace)
  • Text weights pro fulltextová pole
  • Vector weights pro vektorová pole
  • Agregační funkce pro kombinování různých scoring funkcí
OpenAI Embeddings

Pro vytváření embeddingů používáme OpenAI Embeddings, konkrétně modely jako text-embedding-3-large:

  • Kvalitní embeddingy: OpenAI modely poskytují vysoce kvalitní embeddingy, které dobře fungují i pro češtinu
  • Konzistentní API: Jednoduchá integrace s Azure AI Search
  • Škálovatelnost: OpenAI API zvládne velké objemy požadavků

OpenAI embeddingy jsou zvlášť vhodné pro češtinu, protože byly trénovány na vícejazyčných datech a poskytují dobré výsledky i pro menší jazyky.

Integrace

Azure AI Search umožňuje přímo použít OpenAI embeddingy jako vectorizer, což zjednodušuje integraci. Můžeme definovat vektorová pole v indexu, která automaticky používají OpenAI pro vytváření embeddingů při indexování dokumentů.

News
0
min
read

Microsoft Ignite 2025: Posun od AI experimentů k firemním agentům nové generace

Microsoft Ignite 2025 – každoroční konference pro vývojáře, IT profesionály a partnery – přinesla novinky ve vývoji AI pro firemní prostředí. Pozornost se přesunula od generativních ukázek k autonomním agentům, orchestraci napříč platformami a governance frameworkům, které umožňují nasazení AI v enterprise měřítku. Microsoft uvádí, že pro organizace investující do produktivity nebo vývoje nových digitálních produktů to znamená novou laťku: AI musí být integrovaná, bezpečná, řízená a připravená fungovat ve velkém. Tento článek shrnuje nejdůležitější poznatky včetně doporučení, co by měly firmy udělat jako další krok.
1. AI agenti přechází do hlavní role

Hlavním oznámením Microsoftu byl Agent 365, který staví AI agenty do role nové provozní vrstvy digitálního pracovního prostředí. Nabízí centrální místo pro registraci, monitoring, zabezpečení a koordinaci agentů napříč organizací.

Zároveň Microsoft 365 Copilot představil dedikované agenty pro Microsoft Word, Excel a PowerPoint – schopné autonomně generovat, restrukturalizovat a analyzovat obsah podle firemního kontextu.

Copilot a agenti napříč celou firmou, zdroj: Microsoft
Proč je to důležité

Uživatelé se posouvají od „ptaní se AI“ k „zadávání práce AI“. Agentní architektury postupně nahradí mnoho jednoúčelových copilotů.

Co mohou firmy udělat
  • identifikovat workflow vhodné pro autonomní agenty
  • standardizovat chování a oprávnění agentů
  • rozhodnout, které workflows je vhodné pro Agent 365
  • spustit pilotní nasazení v rámci Microsoft 365

2. Integrace a orchestrace se stávají nezbytností

Microsoft také zdůraznil interoperabilitu skrze Model Context Protocol (MCP). Agenti v Microsoft Teams, Microsoft 365 i třetích stranách mohou sdílet kontext a provádět koordinované vícekrokové workflow.

Proč je to důležité

Skutečná automatizace vyžaduje orchestraci nástrojů, datových zdrojů a týmů – ne izolované asistenty.

Co mohou firmy udělat
  • zmapovat workflow napříč aplikacemi
  • propojit nástroje produktivity s CRM/ERP a dalšími systémy
  • navrhnout agentní ekosystém místo samostatných botů

3. Governance a bezpečnost v popředí

S rostoucí autonomií agentů Microsoft přinesl nové governance možnosti:

  • přehled o oprávněních agentů
  • monitoring jejich chování
  • integrace s Microsoft Defender, Entra a Purview
  • centrální řízení politik
  • ochrana proti úniku dat

Oficiální Microsoft článek se všemi novinkami ohledně bezpečnostních novinek - Link

Proč je to důležité

AI ve velkém měřítku musí být plně dohledatelná, bezpečná a v souladu s regulacemi.

Co mohou firmy udělat
  • definovat, kdo může agenty vytvářet a upravovat
  • nastavit auditní a monitorovací standardy
  • vytvořit bezpečnostní mantinely ještě před širokým nasazením

4. Windows, Cloud PC a vzestup AI-first pracovního prostředí

Microsoft prezentoval Windows 11 a Windows 365 jako klíčové komponenty pracovního prostředí připraveného na AI. Novinky zahrnují:

  • AI-vylepšené Cloud PC
  • podporu sdílených a frontline zařízení
  • lokální inference agentů na podporovaném hardware
  • automatizaci na úrovni endpointu
Proč je to důležité

Distribuované týmy získají konsistentní a bezpečné prostředí s nativní AI podporou.

Co mohou firmy udělat
  • zhodnotit využití Cloud PC ve svém prostředí
  • modernizovat digitální workplace pro AI workflow
  • zvážit AI-ready zařízení pro provozní týmy

5. AI infrastruktura a vývoj Azure

Microsoft Ignite přinesl další posun v Azure AI, včetně:

  • rychlejšího a stabilnějšího hostingu a verzování modelů
  • hybridního CPU/GPU inferencování
  • efektivnějších deployment pipeline
  • úspornějšího fine-tuningu
  • vylepšené governance trénovacích datasetů

Celý report najdete zde - Link

Proč je to důležité

Robustní datová a modelová infrastruktura je základem pro agentní ekosystém.

Co mohou firmy udělat
  • modernizovat datovou architekturu pro AI-ready stav
  • implementovat vektorové vyhledávání a RAG pipeline
  • optimalizovat náklady na provoz modelů

6. Copilot Studio a ekosystém pluginů se výrazně rozšiřují

Copilot Studio prošlo výraznou modernizací a posunulo se směrem k centrálnímu integračnímu a automatizačnímu nástroji. Novinky zahrnují:

  • vizuální tvorbu vlastních agentů
  • no-code vícekrokové workflow
  • pluginy propojené s interními API
  • lepší grounding a práci s podnikovými daty
  • rozšířenou sadu konektorů pro CRM/ERP/event platformy
Proč je to důležité

Firmy mohou vytvořit oborové asistenty napojené na interní systémy a procesy.

Co mohou firmy udělat
  • vyvíjet specializované copiloty pro konkrétní role a oddělení
  • integrovat stávající systémy skrze konektory
  • využívat vizuální logiku pro rychlé prototypy

7. Propojení Fabric a Azure AI na nové úrovni

Microsoft Fabric přidal výrazné AI funkce:

  • hlubší propojení s Azure AI Studio
  • automatizované pipeline pro přípravu dat pro AI
  • vektorové indexy a RAG v rámci OneLake
  • posílenou datovou lineage a governance
  • lepší výkon analytiky ve velkém měřítku
Proč je to důležité

AI agenti potřebují čistá, aktuální a dobře spravovaná data. Fabric umožňuje vytvořit a spravovat konsolidované prostředí pro data i AI.

Co mohou firmy udělat
  • konsolidovat roztříštěné pipeline do Fabricu
  • implementovat interní znalostní vyhledávání pomocí RAG
  • vytvářet governance-ready AI datasety

Co to znamená pro firmy

Napříč všemi novinkami je jasné, že AI se stává provozní vrstvou, nikoli doplňkem.

Firmy by měly počítat s tím, že:

  • přichází přesun od experimentů k reálnému nasazení
  • multi-agentní ekosystémy porostou rychleji
  • governance je základní podmínka škálování
  • propojení nástrojů a dat je zásadní
  • AI bude součástí nástrojů, které lidé používají každý den
  • konkurenční výhodu určí kvalita workflow, ne samotný model

Jak se připravit na rok 2026

Doporučené kroky:

1. Zmapujte workflow s vysokou hodnotou pro agentní automatizaci

Identifikujte opakované a mezi-týmové procesy, kde autonomní agenti přinášejí největší efekt.

2. Vytvořte governance framework pro agenty

Nastavte role, oprávnění, audit, monitoring a provozní dohled.

3. Připravte datovou infrastrukturu

Zajistěte kvalitní, spravovaná a přístupná data, která mohou agenti bezpečně využívat.

4. Integrujte produktivní nástroje

Propojte Microsoft Teams, Microsoft 365 a MCP-kompatibilní aplikace pro plynulý provoz.

5. Začněte pilotem

Vyberte jednu oblast nebo tým a otestujte agentní workflow pod dohledem.

6. Plánujte škálování

Po ověření guardrailů začněte agentní systém rozšiřovat do dalších částí firmy.

BigHub
0
min
read

Od teorie k praxi: Jak BigHub připravuje studenty FJFI ČVUT na svět dat a AI

Datoví analytici a specialisté na umělou inteligenci dnes patří k nejžádanějším profesím na trhu. Firmy hledají lidi, kteří rozumí datům, dokážou využít cloudové technologie a umí aplikovat metody strojového učení na reálné problémy. Univerzitní výuka ale často zůstává teoretická. Studenti se naučí algoritmy a matematické principy, ale už nevědí, jak tyto znalosti využít v praxi. Na Fakultě jaderné a fyzikálně inženýrské ČVUT (FJFI) se to snažíme změnit.
Propojení akademické sféry a praxe je klíčové

Od akademického roku 2021/2022 zde jako BigHub vyučujeme celosemestrální kurzy, které propojují akademickou půdu s reálným světem dat. A není to jen o přednáškách – studenti si sami vyzkouší, jak vypadá práce s daty v podnikovém prostředí, s reálnými technologiemi a pod vedením lidí, kteří podobné projekty řeší každý den.

Co nás na „Jaderku“ přivedlo

BigHub má k FJFI ČVUT osobní vztah. Mnozí z nás – včetně CEO Karla Šimánka, COO Ing. Tomáše Hubínka a více než deseti dalších – jsme na Jaderce sami studovali. Víme, že fakulta vychovává špičkové matematiky, fyziky a inženýry. Ale zároveň víme, že právě těmto studentům někdy chybí vhled do toho, jak svět dat a AI funguje v byznysu.

Proto jsme se rozhodli to změnit. Ne jako náborovou kampaň, ale jako dlouhodobý příspěvek českému školství. Chceme, aby studenti viděli reálné příklady, vyzkoušeli si moderní nástroje a lépe se připravili na start kariéry.

Dva předměty, dva semestry
18AAD – Aplikovaná analýza dat (letní semestr)

První předmět jsme otevřeli v akademickém roce 2021/2022. Vede ho Ing. Tomáš Hubínek a jeho cílem je dát studentům přehled o tom, jak vypadá práce s daty ve velkém měřítku. Mezi probíraná témata patří:

●  organizace a ukládání dat,

●  frameworky pro výpočty nad velkými daty,

●  analýza grafů,

●  cloudové služby,

●  základy AI a ML.

Velký důraz klademe na praktická cvičení. Studenti pracují v prostředí Microsoft Azure, zkoušejí si různé technologie a mají prostor pro diskusi. Na vybrané přednášky zveme i další kolegy z BigHub, aby sdíleli zkušenosti z konkrétních projektů.

18BIG – Big Data nástroje a architektura (zimní semestr)

V roce 2024 jsme přidali druhý předmět, který na 18AAD volně navazuje. Výuku vedou doc. Ing. Jan Kučera, CSc. a doc. Ing. Petr Pokorný, Ph.D . Předmět jde více do hloubky a soustředí se na:

●  data governance a práce s daty v organizaci,

●  integrační architektury,

●  datové platformy a příprava pro AI aplikace,

●  best practices z reálných firemních projektů.

Zatímco 18AAD ukazuje, co vše se dá s daty dělat, kurz 18BIG učí a představuje, jak to reálně funguje ve firmě.

Nadstandardní zájem studentů

Volitelných předmětů FJFI se běžně účastní jen několik málo studentů. Na našekurzy se ale každý rok hlásí 20–35 studentů, což je na poměry fakulty nadstandard.

Zpětná vazba je konzistentní – studenti oceňují praktický přesah, otevřenost diskuse a možnost ptát se lidí z praxe na konkrétní situace. Pro mnohé jde o první kontakt s technologiemi, které firmy skutečně používají.

Přesah do studijních programů

Naše role nekončí u přednášek. Společně s katedrou softwarového inženýrství jsme pomáhali revidovat studijní programy a profil absolventů. Fakulta tak může pružněji reagovat na to, co firmy v oblasti dat a AI potřebují. Díky tomu se posouvá kvalita vzdělávání celé fakulty, tedy nejen u studentů, kteří si zvolí naše volitelné předměty.

Není to o náboru

Občas se stane, že některý ze studentů najde cestu do BigHub, ale to není hlavní cíl. Jde o to, aby studenti po škole nebyli překvapení, jak se s daty skutečně pracuje. Chceme, aby měli širší a praktičtější znalosti a zkušenost s moderními nástroji. Dáváme tak něco zpět místu, které nás vychovalo, a věříme, že to pomůže celé české technologické scéně.

Spolupráce s FJFI není jen o výuce. Prakticky od vzniku BigHub podporujeme také studentskou unii a účastníme se sportovní akce Pohár děkana FJFI, kde každoročně hrajeme futsal, beach volejbal a další sporty. Letos jsme navíc společně s FJFI podali několik dotačních žádostí a věříme, že se brzy zapojíme do společných technických projektů. Razíme myšlenku, že silná komunita a neformální propojení studentů s lidmi z praxe jsou stejně důležité jako znalosti v učebnicích.

Co plánujeme dál?

Naše spolupráce s FJFI ČVUT je dlouhodobá. Kurzy 18AAD a 18BIG poběží i v dalších letech a přemýšlíme, jak rozšířit jejich záběr.

Vidíme, že studenti mají hlad po praktických zkušenostech a že propojení akademie s praxí funguje. Pokud se díky tomu v budoucnu zlepší kvalita datových a AI projektů v českých firmách, bude to nejlepší důkaz, že naše úsilí má smysl.