ARTICLES
-
Uruchamianie dużych modeli językowych na zdalnym GPU za pomocą RunPod i PyCharm
W tym artykule pokażemy, jak uruchamiać duże modele językowe (LLM) lub inne zadania wymagające mocy obliczeniowej GPU na instancji RunPod bezpośrednio z PyCharm. Takie podejście umożliwia korzystanie z wydajnego sprzętu w chmurze, nie obciążając przy tym lokalnego komputera. Co więcej, w porównaniu z AWS, RunPod często okazuje się korzystniejszy cenowo dla obciążeń GPU, a ponadto…
Actually developing applications:
Stage 1 completed – Scene Production Service BETA
https://www.youtube.com/watch?v=fmKGQ7dcZdk
https://github.com/c100rczyk/Thesis_project_PWR

Stage 1 – Application helper chat
Providing the user with relevant information about the data from the application he is using
(The github repository of this project is not accessible for public for now)

Orders for individual customers:
In the future
Trending
Recomendation of courses:
Machine Learning: Machine Learning Specialization (Coursera)
