Switch to English?
Yes
Переключитись на українську?
Так
Переключиться на русскую?
Да
Przełączyć się na polską?
Tak

Freeelancers' best works

1000+
  • 10 USD

    Python script to find unique tests

    Python
    Automatization of searching for unique test questions with options of answers that are contained in a voluntary number of text files. The Python script processes these files and releases the final text file, which includes only unique test questions.
    by Python


  • Python scripts to collect information on module testing.

    Python
    The main functionality:

    The program receives the data of the verified modules and records them in the InfluxDB database.
    Visualization of stored data in real time using Grafana.

    The realization:

    The script creates and runs a simple HTTP server, which receives data on modules in the form of a json file using the post method.
    The received data is broken and recorded in the InfluxDB database of the Influxdb API.
    To visualize the data was created the Graphana dashboard. To request the database in the dashboard is used the built-in language of the flux requests.


  • Python scripts to collect information through AWS IoT

    Python
    The main functionality:

    The script receives data from IoT devices through the MQTT protocol through the AWS IoT Core service.
    The obtained data is stored in the InfluxDB database for follow-up processing and visualization.

    The realization:

    The script creates a mqtt client for the AWS service using the AWS IoT Core API.
    The received data is broken and recorded in the InfluxDB database through the Influxdb API.
    There are two Docker containers – Python application and InfluxDB database. A network for data exchange between containers.
    Hot apps for Amazon services - AWS.


  • 50 USD

    MongoDB for Python

    Python
    Python script interaction module with the MongoDB database, performed in OOP style


  • Python Programming

    System programming
    I develop a backend on Python + I also use Python


  • 13 USD

    Python HTML Parser

    Python
    Screenshot for parsing content from WEB pages. It explores the elements of their classes, resulting in parsitting the whole content from the page.


  • 204 USD

    Python Dev create telegram bots parsers

    Python
    The project is a stress-resistant parser, which works in a multi-way mode and connected to the telegram-boot. It is able to process large amounts of data and work for a long time without mistakes or errors. Also, our parser has the possibility to automatically reboot in case of problems. This innovative solution, which allows you to receive current information in real time, increases the reliability and speed of the system.


  • 127 USD

    Python binance analysis bot.

    English
    Імпортуємо необхідні модулі, такі як os, binance, talib, numpy та pandas.
    Ініціалізуємо клієнта Binance з заповнювачем для ключа API та секрету.
    Отримуємо історичні дані klines для заданого символу та інтервалу.
    Конвертуємо дані klines в Pandas DataFrame.
    Конвертуємо типи даних в відповідний формат.
    Розраховуємо індикатор Moving Average Convergence Divergence (MACD).
    Розраховуємо індикатор Relative Strength Index (RSI).
    Розраховуємо індикатор Moving Average (MA).
    Друкуємо результати.


  • 13 USD

    Python text token

    English
    Ось огляд того, що робить цей код:

    Імпортує необхідні бібліотеки: nltk для обробки природних мов, re для регулярних виразів та json для роботи з об'єктами JSON.

    Перевіряє, що необхідні дані NLTK завантажені. Якщо ні, то вони завантажуються.

    Визначає функцію tokenize_text(text), яка приймає рядок text як вхідні дані та повертає об'єкт JSON, що містить кожне слово в тексті та речення, у яких воно зустрічається.

    Функція tokenize_text(text) спочатку розбиває текст на окремі речення за допомогою sent_tokenize(text) з модуля nltk.tokenize.

    Потім вона створює порожній словник word_dict для зберігання слів та їх речень.

    Для кожного речення в тексті функція токенізує речення на окремі слова за допомогою word_tokenize(sentence) з модуля nltk.tokenize.

    Функція потім фільтрує будь-які зупинні слова (звичайні слова, такі як "the" та "and", які зазвичай не є корисними для аналізу) та небажані слова (такі як знаки пунктуації та числа) за допомогою спискового включення, яке перебирає слова та перевіряє, що кожне слово не міститься в множині англійських зупинних слів (stopwords.words('english')) та що воно не складається виключно з символів, які не є словами (за допомогою re.match('^[\W_]+$', word)).

    Функція потім перебирає відфільтровані слова та додає кожне слово та індекс речення, у якому воно зустрічається, до word_dict. Якщо слово вже є у словнику, функція додає індекс речення до списку речень, у яких зустрічається слово.

    Нарешті, word_dict перетворюється на об'єкт JSON за допомогою json.dumps(word_dict)


  • Python Package Fastapi-sa-orm Filter

    Python
    A package that helps to realize a simple object filter for programs built on FastAPI and SQLAlchemy.
    The main proxy functionality allows you to transform a query set of parameters into SQLAlchemy ORM requests with set parameters.