Статті

Постійне посилання колекціїhttps://dspace.nuft.edu.ua/handle/123456789/7522

Переглянути

Результати пошуку

Зараз показуємо 1 - 10 з 11
  • Ескіз
    Документ
    Цифровізація системи управління охороною праці підприємств харчової промисловості
    (2024) Євтушенко, Ольга Володимирівна; Сірик, Аліна Олегівна
    У статті розглянуто основні тенденції цифровізації системи управління охороною праці підприємств харчової промисловості в частині моніторингу, для адекватного та постійного управління з урахуванням усіх факторів, що впливають на стан охорони праці. Розглянуто сервісні та програмні продукти з охорони праці, виконано аналіз їх функціональності, використання, можливості синхронізації єдиного інформаційного середовища СУОП харчових підприємств
  • Ескіз
    Документ
    Системний підхід до створення WEB-орієнтованої платформи для інформа-ційної системи управління замкну-тими екосистемами в умовах екстре-мального забруднен ня навколишнього середовища
    (2019) Чумаченко, Сергій Миколайович; Гуйда, Олександр Григорович; Андріюк, Олена Петрівна; Іващенко, В. Г.
    У статті наведено програмні засоби для створення Web-орієнтованої платформи, розглянуто розробку як систему взаємопов’язаних підсистем та елементів, проілюстровано алгоритм роботи та схему залежності об’єктів. In the article the software for creation the Web-oriented platform is given, development is considered as a system of interconnected subsystems and elements, the algorithm of work and the scheme of dependence of objectsis illustrated.
  • Ескіз
    Документ
    Інформаційно-аналітична система для проведення екологічної оцінки якості стану ґрунтових вод у зоні техногенного впливу міжнародного аеропорту «Бориспіль»
    (2019) Чумаченко, Сергій Миколайович; Андріюк, Олена Петрівна; Прокопенко, Володимир
    У даній публікації розглянуто особливості реалізації інформаційно-аналітичної системи для здійснення екологічного моніторингу та оцінки стану ґрунтових вод і складових частин навколишнього середовища в зоні впливу техногенного об’єкта – міжнародного аеропорту «Бориспіль». Розроблено програмно-апаратні засоби для здійснення екологічного моніторингу в зоні впливу міжнародного аеропорту «Бориспіль» на основі використання безконтактних сенсорних мереж, Web-орієнтованих засобів візуалізації бази даних екологічного моніторингу із застосуванням аналітичної графіки та геоінформаційних технологій. This publication discusses the features of the implementation of the information-analytical system for the implementation of environmental monitoring and assessment of the state of groundwater and environmental elements in the zone of influence of a technogenic object – Boryspil International Airport. Software and hardware tools have been developed for environmental monitoring in the zone of influence of the Boryspil International Airport based on the use of contactless sensor networks, Web-based means of visualization of the environmental monitoring database using analytical graphics and geo-information technologies.
  • Ескіз
    Документ
    Обґрунтування доцільності створення гібридної експертної системи контролю якості заморожених продуктів десертного призначення
    (2015) Бреус, Наталія Миколаївна; Маноха, Людмила Юріївна; Поліщук, Галина Євгеніївна
    У статті розглянуто та запропоновано методологію створення гібридної експертної системи (ЕС) контролю й оптимізації рецептур морозива і заморожених десертів. Визначено основні завдання та розроблено структуру експертної системи, що складається з чотирьох основних блоків. Запропоновано загальну блок-схему моделювання в системі оптимальних рецептур на основі комплексного показника якості готового продукту. Вивчено й проаналізовано основні математичні методи розробки математичного апарату ЕС за допомогою симплекс-методу, де цільовою функцією є оптимізація комплексного показника якості готового продукту. Проведено аналіз сучасних інформаційних технологій розробки експертних систем.
  • Ескіз
    Документ
    Порівняння методу обробки і аналізу log-файлів у форматі JSON з існуючими рішеннями
    (2018) Брацький, Вадим Олегович; М'якшило, Олена Михайлівна
    Log-файли часто і абсолютно незаслужено обділені увагою розробників. І коли програмістам необхідно обробити парсером log-файли, іноді з декількох десятків серверів одночасно, завдання покладається на системних адміністраторів і забирає в них багато часу й сил. У разі виникнення проблем і пошуку помилок у log-файлах сервісу все залежить від того, наскільки професійним є адміністратор і чи знають програмісти, що шукати. А ще від того, чи відпрацював logrotate і чи не видалив він старі дані. У таких ситуаціях ефективно допомагає Logstash, що активно розвивається. У мережі https://habrahabr.ru/ є досить багато статей про те, як його встановити і змусити працювати на одному сервері. У статті проаналізовано декілька схожих систем (Log Parser 2.2, Logstash, Web Log Exploler, Web Log Storming), які використовуються як сервери обробки log- файлів. На жаль, ці системи не можна використовувати як агенти. Після кількох випадків збірки log-файлів з множини серверів, авторам статті вдалося розробити систему збирання log-файлів, опис якої пропонується. Також розглянуто існуючі рішення і проведено порівняльний аналіз систем обробки log-файлів за такими критеріями: формат log-файлів, база даних збереження, можливості аналізу. У результаті з’ясовано, що log-файли є вельми потужним засобом для аналізу функціонування клієнтських додатків розподіленої системи на сервері. Також на сьогодні існує досить багато рішень для аналізу цих документів. Але для кожної системи досить важко підібрати потрібний аналізатор, який би легко справлявся з документами і відповідав би всім вимогам. Тому розглянуто чотири системи, які розроблені для вирішення подібних завдань. У результаті розроблено систему, яка здатна: - проводити швидкий парсинг лог-фалів за заданими критеріями; - зберігати проаналізовані дані в нереляційній базуйданих MongoDB, в якій можна проводити аналіз даних з лог-файлів за допомогою NoSQL запитів; - зберігати файли, де виявлені помилки у базі даних, за допомогою технології GridFS; - на основі проаналізованих даних автоматично запропонувати шлях вирішення проблеми. Log files are often and completely unfairly deprived of the attention of developers. And when programmers need to process log files by parser, sometimes from several dozen servers at a time, the task must be made by system administrators and it takes a lot of time and effort. So when there are problems and you need to find an error in the log files of a service, it all depends on the professionalism of the administrator and the knowledge of programmers about things they must look for. And again, whether the logrotate worked out and if it did not delete the old data. In these situations, actively developing Logstash helps. On the web site https://habrahabr.ru/ there are quite a few articles about its installing and forcing to work on one server. Several similar systems (Log Parser 2.2, Logstash, Web Log Explorer, Web Log Storming), which are used as log-processing servers, are analyzed in the article. Unfortunately, these systems can not be used as agents. After several assemblies of log files from a plurality of servers, authors of the article managed to develop a log-file collection system, the description of which is proposed. Existing solutions are also reviewed and a comparative analysis of log file processing systems is conducted according to the following criteria: log file format, storage database, analysis capabilities. As a result, it was found that log files are a very powerful tool for analyzing the functioning of client applications of a distributed system on a server. There are also many solutions for analyzing these documents today. But for each system it's quite difficult to find the right analyzer that would easily handle the documents and meet all the requirements. Therefore, we considered four systems that had been designed to solve similar problems, as well as a system based on them that is capable to: - carry out rapid parsing of log files according to the specified criteria; - store the analyzed data in the non-relational database MongoDB, where it is possible to analyze data from log files using NoSQL queries; - store files where errors in the database are detected using GridFS technology; - based on the analyzed data, automatically suggest a way to solve the problem.
  • Ескіз
    Документ
    Дослідження та розробка методу обробки log-файлів у розподіленій інформаційній системі з використанням нереляційної бази даних MongoDB
    (2018) Брацький, В. О.
    У кожного користувача персонального комп’ютера при активному використанні програмного забезпечення в розподіленій системі в реальних умовах виникають ситуації, коли з ’являються помилки або фактори, що призводять до збою роботи програми. Через це формуються повідомлення про помилку в програмному забезпеченні, яка може бути відкоригована користувачем. В інших випадках програма сама встигає усунути проблему, і користувач не помічає жодних змін у функціях програми. Незважаючи на те, що проблема вирішена, в таких випадках важливо встановити причину збою й усунути її. У статті розглянуто програмний продукт, що сам обходить помилки і фіксує їх у log-файлах, які є незрозумілими для простого користувача. Запропоновано метод збереження log-файлів, їх парсинг-аналізу та прийняття рішень щодо виправлень виявлених помилок користувача в розподіленій системі. Описано структуру log-файлів, з ’ясовано їхнє призначення. Розглянуто формат JSON і доведено, чому саме в цьому форматі доцільно описувати логи. Також визначено алгоритм парсингу і збереження файлів за допомогою GridFS в MongoDB. Після обробки даних запропоновано вирішення виявлених відмов у системі. За допомогою програмного продукту проведено порівняльний аналіз параметрів збереження та обробки log- файлів у реляційній (SQLServer) і нереляційній (MongoDB) базах даних. Тема, що розглядається, є актуальною для кожного розробника й аналітика систем, де одночасно працює велика кількість користувачів. Проведений аналіз полегшить діагностування помилок програмного забезпечення розробникам, допоможе рухатися в правильному напрямку, дасть змогу аналітикам розробити проект так, щоб ці помилки в подальшому не проявлялися. Every user of a personal computer, when actively using software in a distributed system, in real conditions, there are situations when there are errors or factors that cause program to fail. In such situations, an error message is generated in the software, which can be corrected by the user. In other cases, the program itself has time to fix the problem, and the user does not notice any changes in the functions of the program. In spite of the fact that the problem is solved, in such cases, it is important to establish the cause of the failure and eliminate it. This article deals with this topic, where we will get acquainted with such moments where the software itself bypasses the errors and fixes them in log files that are not clear to the average user. The solution to save log files, parsing them, analyzing and making decisions about fixing errors found on the user’s side in the distributed system is also considered. The structure of the log-files is described and their purpose is inquired. JSON format is considered and it is proved why it is advisable to describe logos exactly in this format. It is also considered the parsing and file saving algorithm using GridFS in MongoDB. After the data processing, suggestions were made for solving the discovered failures in the system. And also with the help of the software product, a comparative analysis of parameters for storing and processing log files in the relational (SQLServer) and non-relational (MongoDB) databases is conducted. Therefore, this topic is currently relevant to each developer and system analyst, which simultaneously runs a large number of users. For developers, this analysis will help to diagnose software errors, to move in the right direction, and for analytics — to design a project to avoid these errors in the future.
  • Ескіз
    Документ
    Специфікація семантичного версіонування бази даних
    (2020) Струзік, Владислав Анатолійович; Грибков, Сергій Віталійович; Чобану, Валерія Вячеславівна
    У статті проаналізовано необхідність використання версіонування під час розробки та підтримки програмного забезпечення. Описані наявні схеми версіонування та особливості кожної з них. Окремо виділено семантичне версіонування, тому що ця схема є найпопулярнішою серед компаній, що займаються розробкою програмного забезпечення. У статті розглянуто основні правила зміни версії програмного продукту відповідно до специфікації семантичного версіонування.
  • Ескіз
    Документ
    Study of the methods and approaches of databases refactoring
    (2018) Hrybkov, Serhii; Struzik, Vladislav; Lytvin, Anna; Chobanu, Valeria
    At the moment, the approaches to refactoring code are described in most fundamental literary sources, there are many approaches and automated software tools for its implementation. The process of code refactoring in theory does not differ from practical application.
  • Ескіз
    Документ
    Створення автоматизованих навчальних систем на основі баз даних лінгвістичної інформації
    (2012) Костіков, Микола Павлович; Самсонов, Валерій Васильович
    У статті на прикладі програмного забезпечення для вивчення граматики аналізуються можливості індивідуалізації навчального процесу. Визначено перспективи створення автоматизованих навчальних систем на основі баз даних лінгвістичної інформації. The article is concerned with the possibilities of modern e-learning software for personalized instruction by the example of software for teaching grammar. The perspective of the creating of an automated training system based on using linguistic databases is determined.
  • Ескіз
    Документ
    Розроблення алгоритмів та методів завантаження інформації до сховища даних інформаційної системи ВАТ «Макаронна фабрика»
    (2010) Грибков, Сергій Віталійович; Загоровська, Лариса Григорівна
    Розглянуто проблему інтеграції різних інформаційних джерел в інформаційній системі та запропоновано підхід використання єдиного сховища даних як інформаційної інфраструктури підприємства. Розроблено алгоритми та методи завантаження інформації до сховища даних.