TOP 4 alternatív pre ChatGPT

1. T3.chat

Môj primárny nástroj na prácu s LLM. Má asi najviac dostupných modelov na chatovanie, od amerických „lídersky“ model ako ChatGPT alebo Claude od Anthropicu. Taktiež ponúka široku ponuku čínskych model ako KIMI alebo GLM. Má príjmne používatelské prostredie, avšak nie je optimalizované aj pre mobilné zariadenia. Cena za prémium účet je 8USD/mesiac.

Výhody:

  • Cena
  • Výber modelov

Nevýhody:

  • Chýbajúca podpora integrácií (napojenie kalendára, MCP, atď)
  • Podpora spaces
  • Mobilný prístup

2. Perplexity

Toto je môj obľúbený vyhľadávajúci nástroj (čítaj niečo ako Google), ak potrebujem vyriešiť zložitejšiu otázku. Perplexity je skôr vyhľadávač, ako chatbot. Jeho najlepšou výhodou pre mňa je citovanie zdrojov. Taktiež vieme mu zadať, odkial má brať zdroje – zo všeobecného webu (stránky, blogy), zo socialných sietí alebo z vedeckých článkov.

Taktiež má funkcionalitu Spaces, kde viete mať uložené zdroje, z ktorých bude čerpať pri chatových vláknach v danom space, napr. PDF dokumenty alebo prezentácie..

Výhody:

  • Citovanie zdrojov
  • Výber zdrojov – web (blogy, články), akademické články alebo sociálne siete
  • Podpora všelijakých integrácií – Google Calendar, Gmail, MCP,…
  • Mobilná aplikácia

Nevýhody:

  • Malý výber modelov
  • Citovanie zdrojov nie vždy je presné, avšak sa to už deje skôr v ojedinelých prípadoch

3. Open WebUI

Teraz sa jedna o prvú open-source (avšak nie pod „slobodnou“ licenciou) alternatívu. Open WebUI poskytuje primárne webové rozhranie pre prácu so self-hosted, alebo aj s cloud modelmi. Vieme toto rozhranie mať lokálne, alebo na serveri, čím môžeme napríklad sprístupniť modely pre menšie podniky.

Toto riešenie je veľmi výhodne, ak máte v záujme self-hostovať vlastné modely v podniku, ak potrebujete pracovať s citlivými dátami, alebo chcete viac ekonomický výhodne riešenie, a napajiť používateľov na cloud modely pomocou API napríklad.

4. Ollama

Ollama je taktiež self-hosted riešenie, ktoré sa primárne zameriava na spúštanie modelov na vlastných zariadeniach. Pôvodne to bol len CLI program, avšak v poslednej dobe vydali aj desktopovú verziu. Taktiež poskytujú aj modely ako cloud službu.

Ollam-u používam aj na svojom MacBook-u s M1 pro procesorom, kde viem spúšťať lokálne modely s nízkym počtom parametrov, napríklad qwen3.