• Nenhum resultado encontrado

TRANSFORMERS USING THE METHODOLOGY BASED ON THE APPLICATION OF ARTIFICIAL NEURAL NETWORKS

ПОВЫШЕНИЕ ЭФФЕКТИВНОСТИ ФУНКЦИОНИРОВАНИЯ

I. ВВЕДЕНИЕ

В электроэнергетике существуют классы задач, решае- мые с помощью программно-аппаратных комплексов. Часть задач может быть решена за короткое время с использо- ванием относительно простых алгоритмов, другие задачи требуют накопления информации для оценки тенденций изменения параметров работы оборудования по математи- ческим моделям. Существуют задачи, решение которых не может быть осуществлено с помощью синтеза математи- ческой модели на основе паспортных или иных данных об оборудовании [1]. К такому классу задач относятся:

прогнозирование технического состояния оборудования для планирования ремонтов по фактическому состоянию, прогнозирование аварийных ситуаций, классификация режимов работы электроэнергетического объекта, различ- ные задачи по восстановлению исходных сигналов и т. д.

Для решения одной из этих задач предлагается исполь- зование методов машинного обучения, а именно создание программного комплекса на основе нейронной сети, созданной на основе архитектуры LSTM (Long short-term memory; Долгая краткосрочная память) для восста- новления кривой сигнала на вторичной обмотке трансфор- матора тока. В данной работе подробно описывается:

проблема получения сигнала со вторичной обмотки транс- форматора тока, создание обучаемой модели, полученные результаты и дальнейшие перспективы.

II. НАСЫЩЕНИЕ ТРАНСФОРМАТОРОВ ТОКА

В настоящее время работоспособность устройств монито- ринга тока, устройств релейной защиты и автоматики напрямую зависит от правильной работы измерительных трансформаторов тока (ТТ). Однако в некоторых случаях эти трансформаторы подвержены явлению насыщения, что уменьшает их точность и непосредственно влияет на характеристики срабатывания устройств защиты и работу автоматики [2].

Насыщение трансформатора объясняется нелинейной характеристикой намагничивания магнитопровода. Так, при небольших токах намагничивания в линейной зоне (рис. 1, ток Iм1) вторичный ток обмотки трансформатора является уменьшенной копией первичного (рис. 2), но при переходе в зону насыщения ток намагничивания резко возрастает. В результате вторичный ток уже не повторяет форму первичного тока (рис. 3).

В результате электромеханические и микропроцессор- ные устройства защиты, имеющие различные методы обра- ботки входных сигналов, при появлении насыщения ТТ, перестают правильно функционировать. Так, электромеха- нические реле не способны отключить повреждение, так как квадрат действующего значения вторичного тока не превышает уставленного. В свою очередь микропро- цессорные устройства при искаженном вторичном токе неправильно определяют интегральное значение тока, определяющего срабатывание, что также приводит к отказу функционирования. Таким образом, насыщение ТТ оказы- вает негативное влияние на быстродействие устройств защиты, а также возникновению неселективных отклю- чений защиты.

Рис. 1 – Кривая намагничивания ТТ

Рис. 2 – Первичный ток при КЗ

Рис. 3 – Ток на вторичной обмотке ТТ после возникновения КЗ в сети и насыщении ТТ

Для моделирования данных по работе ТТ используется программный комплекс PSCAD, позволяющий в широких пределах настраивать параметры, влияющие на сигнал выходного тока при насыщении ТТ.

Наличие апериодической составляющей тока КЗ на пер- вичной стороне свидетельствует о наличии остаточного намагничивания в момент повреждения и сопротивлении вторичной цепи.

III. МАШИННОЕ ОБУЧЕНИЕ

Для решения проблемы искажения сигнала на вторич- ной обмотке при насыщении ТТ предлагается восстановле- ние кривой тока при помощи методов машинного обучения (МО). Машинное обучение (Machine Learning) – обширный подраздел искусственного интеллекта, изучающий методы разработки обучающихся алгоритмов. На данный момент существует и описано множество различных методов МО, но самым популярным и подходящим под поставленную нами задачу является использование искусственных ней- ронных сетей.

Нейронная сеть представляет собой некую последова- тельность нейронов (структурных элементов), связанных между собой синапсами (связующий элемент) [3]. Благо- даря такой структуре машины могут хранить информа- цию, анализировать её и даже воспроизводить из памяти.

Нейронные сети используют для создания как описатель- ных моделей данных, так и моделей для прогнозирования.

С помощью нейронных сетей могут решаться задачи кластеризации, классификации, предсказания значений и другие [3]. Нейронные сети могут рассматриваться как сложные регрессионные модели, но их популярность, в первую очередь, определяется хорошей проработанностью алгоритмов настройки коэффициентов модели, или, как обычно называют этот процесс, алгоритмов обучения сети. В связи с этим в литературе чаще всего нейронные сети рассматриваются как обучающиеся системы, основная разновидность Machine Learning. Для исполь- зования нейронной сети она должна пройти процесс обучения. Под обучением сети понимается процесс настройки параметров так, чтобы выход сети соответствовал решению поставленной перед ней задачи.

Следует помнить, что сеть «понимает» не то, что от нее требуют, а то, что проще всего обобщить [3].

Для решения поставленной задачи нами была выбрана Long short-term memory (LSTM) архитектура сети [5].

Стоит отметить, что существует множество других вариантов, но в данной работе они описаны не будут.

IV. ПРИМЕНЕНИЕ RNN

Нейронные сети, разработанные на архитектуре LSTM, относятся к рекуррентным нейронным сетям (Recurrent neural network; RNN) [4]. RNN определяет возможность обрабатывания серии событий во времени, это возможно благодаря тому, что связи между элементами образуют направленные последовательности, что позволяет нам использовать их для восстановления кривой тока. Именно RNN используются в задачах обработки функций, зави- сящих от времени, поскольку благодаря своей «памяти»

эти ячейки (нейроны) имеют возможность переключать свое состояние, тем самым адаптируя выходное значение с течением времени. На основе ячеек LSTM нами была построена структура автоэнкодер. Автоэнкодером назы- вается модель, которая восстанавливает входной сигнал на выходе, при этом внутри имеется скрытый слой, представленный последовательностью ячеек LSTM, хранящих в себе измененное представление компонент основного сигнала [5]. Автоэнкодеры конструируют таким образом, чтобы у модели не было прямой возможности скопировать входной сигнал, как правило это достигается путём снижения размерности кода (его делают меньше размерности сигнала). Как следствие, невоз- можно получить идеальный исходный сигнал на выходе, из-за этого модели приходится учиться отбирать важней- шие признаки сигнала и тем самым восстанавливать наиболее похожую картину. Алгоритм работы автоэнко- дера (рис. 4) следующий:

Рис. 4 – Алгоритм работы автоэнкодера

1. Энкодер переводит входной сигнал в его представ- ление (программный код): h = g(x).

2. Декодер восстанавливает его сигнал по коду x = f (h).

3. Автоэнкодер, изменяя функции f и g, стремится выучить тождественную функцию x = f (g(x)), при этом сводя к минимуму функцию ошибки M(x, f (g(x))).

Таким образом, благодаря использованию автоэнко- дера можно восстановить исходный сигнал с вторичной обмотки ТТ, который на рис. 5 показан красным цветом.

Жёлтым цветом показан изначальный сигнал с первичной обмотки, довольно просто увидеть существенную разницу между ними. Синим цветом представлена восстанов- ленная при помощи автоэнкодера кривая, которая уже ближе по параметрам к исходному сигналу (это хорошо видно ниже, где одновременно изображены кривые с первичной и вторичных обмоток). Однако в начале кривые сильно отличаются, это связано с тем, что модель используемой нейронной сети недостаточно быстро понимает, что произошло короткое замыкание в сети и не может быстро «подстроиться» под изменяющийся сигнал.

Проблема была выявлена при множественной подборке параметров модели. Связана она с тем, что предложенная модель не использует информацию о произошедшем коротком замыкании. Она «подстраивает» выходной сигнал на основе предыдущих значений. Этим объясня- ется заметное отличие кривых вначале (и заметная деградация качества предсказания при исследовании моделью различных параметров сети). Данную проблему планируется решить использованием системы из двух нейронных сетей, работающих в связке.

V. ЗАКЛЮЧЕНИЕ

В результате проделанной работы нами был получен готовый автоэнкодер, восстанавливающий кривую значений тока на вторичной обмотке трансформатора тока (ТТ) по неправильному сигналу, который возникает в следствии насыщения ТТ. В ходе исследования нами были выявлены параметры модели нейронной сети, необходимые для получения правильной кривой тока, создано необходимое программное обеспечение. Однако, в связи с описанными ранее в этой статье особенностями модели, возникают сложности в построении начала сигнала и гибкости нейронной сети в отношении параметров энергосистемы.

Было показано, что глубокие модели могут с 99 % точ- ностью выявлять произошедшее короткое замыкание [6].

Дополнив нашу исходную модель этой информацией, мы планируем значительно повысить качество восстанов- ления сиг-нала. Использование данного метода позволит увеличить надёжность систем релейной защиты.

Список литературы

[1] Волошин А.А., Волошин Е.А., Усачев С.С., Энтентеев А.Р.

Использование моделирующих комплексов (MatLab, PSCad, RSCad, PowerFactory) для синтеза данных для задач машинного обучения в электроэнергетике // Радиоэлектроника, электротехника и энерге- тика: сб. XXIV Междунар. конф. Москва, 2018.590 с.

[2] Джаясинхе Р., Мутумуни Д. Моделирование насыщения трансформаторов тока для изучения устройств релейной защиты //

Релейщик. 2014. № 2. С. 44–46.

[3] Крылов В.В., Крылов С.В. Большие данные и их приложения в электроэнергетике от бизнес-аналитики до виртуальных электро- станций. URL: https://www.hse.ru/mirror/pubs/lib/data/access/ram/ticket/

0/1525083817f2d9bf7c331297c6dbf5349034a68f89/БОЛЬШИЕ%

20ДАННЫЕ%20В%20ЭЛЕКТРОЭНЕРГЕТИКЕ.pdf (дата обращения:

25.04.18).

[4] Степанов П.П. Искусственные нейронные сети // Молодой ученый.

2017. № 4. С. 185–187.

[5] Статья «LSTM-сети долгой краткосрочной памяти»: https://habr.com/

company/wunderfund/blog/331310/ (дата обращения: 25.04.18).

[6] Yu D.C., Cummins J.C., Wang Z. Статья «Neural network for current trans- former saturation correction». URL: https://ieeexplore.ieee.org/document/

755390/ authors (дата обращения: 25.04.18).

© IX Международная научно-техническая конференция «Электроэнергетика глазами молодежи – 2018»

Рис. 5 – Результат выполнения алгоритма

ОСОБЕННОСТИ РЕАЛИЗАЦИИ ТЕХНОЛОГИИ ЦПС

Outline

Documentos relacionados