Your Techmate

Tworzenie bloków Gutenberg z użyciem ChatGPT.

Zobacz kurs

Podstawy AWS.

Automatyzacja procesów z Make.com

  • Jak stworzyć jedną wtyczkę dla wielu bloków Gutenberga?

    Jak stworzyć jedną wtyczkę dla wielu bloków Gutenberga?

  • Nowości w WordPress 6.6.2: Bug Fixes i zmiany w edytorze Gutenberga.
  • Cwicly: Krótka historia innowacji i przemian
  • Konfiguracja środowiska do tworzenia bloków Gutenberga: Przewodnik krok po kroku
  • Gutenberg vs. Site Editor vs. FSE – co jest czym w WordPressie?
  • Jak bez kodowania dodać Google Font do Gutenberga?

Jak uruchomić własny ChatGPT z AutoGPT?

Awatar Mike Tomala

Wzrastające zainteresowanie ChatGPT skłoniło wiele osób do zastanowienia się, jak mogą wykorzystać jego potencjał do automatyzacji lub usprawnienia swojej pracy. Wielu z nas marzy o tym, aby ChatGPT zajął się żmudnymi zadaniami, które często pochłaniają nasz cenny czas. Z takiego właśnie podejścia narodził się projekt open source – AutoGPT, zapoczątkowany przez Torana Bruce Richardsa, znanego również jako Torantulino.

AutoGPT to innowacyjny projekt, który bazuje na możliwościach ChatGPT. Jego głównym celem jest stworzenie w pełni autonomicznego asystenta AI, dostępnego dla każdego. Asystent ten ma możliwość wykonywania najróżniejszych zadań – od przeglądania internetu, przez zamawianie pizzy, aż po pisanie artykułów czy kodowanie. Projekt ten zyskał ogromną popularność w krótkim czasie, zdobywając jako drugi projekt open source związany z AI aż 100 tysięcy gwiazdek na GitHubie.

To dopiero początek

Mimo iż projekt cieszył się ogromną popularnością od samego początku, można śmiało stwierdzić, że dopiero nabiera tempa. Twórcy AutoGPT zgromadzili wokół siebie aktywną społeczność, liczącą niemal 300 osób, które codziennie pracują nad wprowadzaniem nowych funkcjonalności.

Na chwilę obecną, AutoGPT dostępny jest jedynie poprzez linię komend, jednak zespół nieustannie pracuje nad stworzeniem interfejsu graficznego. Taki interfejs pozwoli na korzystanie z aplikacji bez konieczności posiadania umiejętności programowania. Gdy tylko interfejs graficzny (GUI) zostanie udostępniony, na pewno poinformujemy o tym na naszym blogu. Dlatego zachęcamy do regularnego odwiedzania naszej strony, aby być na bieżąco z najnowszymi aktualizacjami.

Dodatkowo, w najnowszej wersji v0.2.2 udostępniony po raz pierwszy został mechanizm pluginów, który pozwala znacznie poszerzać możliwości wykorzystania AutoGPT. Dzięki pluginom, można połączyć model z zewnętrznymi systemami, aby osiągnąć jeszcze wyższy poziom automatyzacji. Możemy na przykład połączyć model z naszą skrzynką e-mail, aby przygotowywała szkice odpowiedzi na maile, połączyć z kontem Twitterowym, aby automatycznie tworzyć twitty. Podobnie możemy połączyć AutoGPT z YouTubem czy Facebookiem i innymi serwisami. Cały katalog dostępnych pluginów można zobaczyć tutaj: https://autoplugins.vercel.app

Przygotowanie klucza do instalacji AutoGPT

Aby skorzystać z AutoGPT, konieczne jest posiadanie płatnego konta w ChatGPT od Open AI. Jeżeli jeszcze nie posiadasz takiego konta, możesz je założyć, korzystając z tego linku: https://platform.openai.com/signup.

Po utworzeniu konta, konieczne jest zmiana jego rodzaju na „płatne” oraz dodanie danych karty płatniczej.

Jak zmienić darmowe konto ChatGPT w konto płatne.

Płynne korzystanie z AutoGPT wymaga posiadania płatnego konta w ChatGPT, ponieważ umożliwia to wygenerowanie klucza niezbędnego do połączenia obu systemów. Można go utworzyć na stronie: https://platform.openai.com/account/api-keys. Klucz stanowi ważny element, umożliwiający pełne wykorzystanie możliwości AutoGPT. Wykorzystamy go podczas konfiguracji AutoGPT. Pamiętaj, aby nikomu nie udostępniać klucza, ponieważ jego utrata może narazić Ciebie na spore koszty, jeśli ktoś inny zdecyduje się go wykorzystać.

Uwaga! Sugerujemy regularne sprawdzanie kosztów wykorzystania API ChatGPT.

Przejdźmy do czynów, czyli instalacja AutoGPT

AutoGPT może zostać uruchomiony na 3 sposoby:

  • za pomocą Dockera
  • w środowisku Python 3.10 lub późniejszym
  • za pomocą VSCode + devcontainer

W tym artykule zajmiemy się instalacją AutoGPT z pomocą Dockera, ponieważ jest to rekomendowana i według mnie, najszybsza metoda instalacji. Jeśli nie masz doświadczenia w pracy z Dockerem, daj znać w komentarzach, a napewno pomożemy. W dalszej części zakładam, że posiadasz zainstalowany i uruchomiony na swoim komputerze Docker.

Najpierw pobieramy obraz dockerowy, za pomocą komendy:

docker pull significantgravitas/auto-gpt

Następnie utwórzmy katalog, w którym zapiszemy plik docker-compose.yml

mkdir myautogpt
cd myautogpt
touch docker-compose.yml

Otwórz utworzony plik docker-compose.yml i wprowadź do niego treść:

version: "3.9"
services:
  auto-gpt:
    image: significantgravitas/auto-gpt
    depends_on:
      - redis
    env_file:
      - .env
    environment:
      MEMORY_BACKEND: ${MEMORY_BACKEND:-redis}
      REDIS_HOST: ${REDIS_HOST:-redis}
    profiles: ["exclude-from-up"]
    volumes:
      - ./auto_gpt_workspace:/app/autogpt/auto_gpt_workspace
      - ./data:/app/data
      ## allow auto-gpt to write logs to disk
      - ./logs:/app/logs
      ## uncomment following lines if you have / want to make use of these files
      #- ./azure.yaml:/app/azure.yaml
      #- ./ai_settings.yaml:/app/ai_settings.yaml
  redis:
    image: "redis/redis-stack-server:latest"

W ramach środowiska dockerowego uruchomione zostaną dwie usługi: baza danych Redis oraz aplikacja AutoGPT. Aplikacja potrzebuje dodatkowych zmiennych konfiguracyjnych, aby mogła poprawnie działać, dlatego należy utworzyć plik o nazwie: .env, w którym wprowadzamy następującą treść:

OPENAI_API_KEY=your-openai-api-key

W treści należy podmienić text your-openai-api-key na wartość klucza OpenAI, który generowaliśmy przed rozpoczęciem instalacji AutoGPT. Zmiennych konfiguracyjnych może być znacznie więcej, ale nie będziemy ich poruszać w tym artykule. Szablon pliku .env z informacjami o innych zmiennych konfiguracyjnych można znaleźć bezpośrednio w repozytorium AutoGPT, pod adresem: https://github.com/Significant-Gravitas/Auto-GPT/blob/master/.env.template

Uruchamiamy AutoGPT!

Aby uruchomić aplikację, wykonujemy komendę:

docker-compose run --rm auto-gpt
Wynik uruchomienia AutoGPT w środowisku Docker, gotowy do wprowadzania komend.

Voila! Po poprawnym uruchomieniu usług dockerowych, możemy skorzystać z aplikacji i zlecić pierwsze zadanie naszemu asystentowi AI.