Top PDF Detecção de anomalias em processos do sistema operacional Linux

Detecção de anomalias em processos do sistema operacional Linux

Detecção de anomalias em processos do sistema operacional Linux

Os processos provêm todas as informações de aplicações, programas auxiliares e serviços batches (redes, daemons diversos), gerenciando tudo que é executado num Sistema Operacional. Muitos processos são demandados sem o conhecimento prévio de que possam gerar algum dano ao funcionamento do sistema. Manter integridade e a garantia de desempenho é fundamental para um bom gerenciamento dos Sistemas Operacionais. Em mineração de dados, considera-se a técnica de detecção de anomalias a identificação de uma ação diferente do comportamento normal. Assim, este trabalho apresenta um modelo de detecção de anomalias com base no comportamento dos processos do Sistema Operacional Linux.
Mostrar mais

45 Ler mais

Análise de conjuntos de dados usados em métodos de detecção de anomalias em redes de computadores

Análise de conjuntos de dados usados em métodos de detecção de anomalias em redes de computadores

Shon e Moon ( 2007 ) propõem em seu trabalho o uso de uma ferramenta comu- mente utilizada para reconhecimento de padrões e classiĄcação, o SVM (Support Vector Machines). Os dados usados para análise foram coletados dos ambientes de teste e pro- dução do MIT Lincoln Labs. Primeiramente, os pacotes são coletados da rede e Ąltrados em tempo real pela ferramenta denominada PTF (Passive TCP/IP Fingerprinting), que permite que pacotes mal formados sejam identiĄcados e descartados. No conjunto de pacotes Ąltrados pelo PTF são aplicados dois processos: O primeiro visa determinar o perĄl dos pacotes normais utilizando uma técnica de mineração de dados conhecida como SOFM (Self-Organized Feature Map). Já o segundo processo utiliza algoritmos genéticos para selecionar quais campos dos pacotes apresentam maior probabilidade de evidenciar a ocorrência de anomalias. O resultado da execução destes processos é inserido na SVM para que seja efetuado o aprendizado e, nos próximos eventos, sejam detectadas anomalias.
Mostrar mais

48 Ler mais

Detecção de anomalias e estimação da qualidade dos dados do sistema de telemetria e monitoramento hidrometeorológico

Detecção de anomalias e estimação da qualidade dos dados do sistema de telemetria e monitoramento hidrometeorológico

O resultado final dos algoritmos que realizam o trabalho proposto pela metodologia de qualificação de dados é uma nota entre 0 (zero) e 10 (dez) para cada uma das telemedições primárias realizadas pelo STH. Esta informação a respeito da nota fica persistida na base de dados, juntamente com a medição em questão. Faltava então, apresentá-la aos usuários nas telas do sistema de supervisão e não apenas como resultado de consultas para a geração de relatórios e gráficos desacoplados da IHM (Interface Homem-Máquina). Para resolver essa questão, foram realizadas diversas alterações nos processos principais de exibição de dados do STH, a fim de apresentar nas telas do próprio sistema a indicação de qualidade da telemedição. A Figura 8.2 ilustra essa nova funcionalidade dada ao sistema de supervisão. Quando se repousa o cursor sobre uma medida surge na tela uma caixa de informações com um resumo a respeito da medição em questão, incluindo ali a nota que a mesma recebeu do sistema de qualificação de dados. No caso ilustrado, a medida está alarmada (fundo rosa) e sua nota é muito boa (10), o que corrobora para a atenção ao alarme apresentado.
Mostrar mais

114 Ler mais

Detecção de anomalias na captura de dados em lojas de  e-commerce

Detecção de anomalias na captura de dados em lojas de e-commerce

Existem ainda dois processos para evitar que erros cometidos pela equipe de desenvolvimento da empresa cheguem no cliente. Um deles é conhecido por ​code review ​, que é um processo bem conhecido pela indústria de ​software​, onde uma segunda pessoa revisa o código produzido por alguém. Dessa maneira, códigos com defeitos podem ser evitados. Além disso, um outro processo é o de ​quality assurance ​, ou somente QA. Nesse processo, uma segunda pessoa é responsável por testar o código desenvolvido, ou seja, simular o comportamento na página do cliente, e assim avaliar qualquer efeito colateral que esse código possa causar.
Mostrar mais

60 Ler mais

Sistema de supervisão aérea baseado em navegação visual para detecção de anomalias em instalações de petróleo e gás

Sistema de supervisão aérea baseado em navegação visual para detecção de anomalias em instalações de petróleo e gás

Uma das características básicas de processos na indústria petroquímica é o uso de substân- cias inflamáveis em elevada pressão, que normalmente são transportadas e/ou armazenadas em sistemas de tanques e dutos equipados com tecnologia a fim de garantir elevados níveis de segurança. Alguns fatores de difícil controle, na maioria das vezes associados à dete- rioração do material (corrosão e fadiga mecânica) ou à falha humana, deixam vulneráveis até os mais confiáveis sistemas que, em última instância, acabam por apresentar derrama- mento do produto por vazamento e explosões, provocando incêndios e colocando em risco a vida dos seres humanos, além de causar prejuízos econômicos, tempo fora de operação, gastos com reparo e principalmente, a contaminação do meio ambiente.
Mostrar mais

98 Ler mais

Análise e detecção inteligente de anomalias

Análise e detecção inteligente de anomalias

KVM ´ E um sistema de virtualiza¸ c˜ ao nativo para Linux que suporta a virtualiza¸c˜ ao por hardware (extens˜ oes Intel VT ou AMD-V). Esta tecnologia consegue valores de perfor- mance muito pr´ oximos ` a utiliza¸ c˜ ao dos Sistemas Operativos directamente no hardware virtualizado. Est´ a-se a tornar o padr˜ ao na virtualiza¸ c˜ ao OpenSource e ´ e utilizada por grandes empresas como a RedHat no fornecimento de solu¸ c˜ oes a clientes, o que ga- rante a estabilidade e continuidade desta tecnologia. Todos estes factores conduziram a que esta fosse a plataforma escolhida para a realiza¸c˜ ao deste trabalho.
Mostrar mais

52 Ler mais

Metodologia para porte do sistema operacional LINUX para sistemas embarcados

Metodologia para porte do sistema operacional LINUX para sistemas embarcados

Qualquer processo a ser executado, seja ele oriundo de uma aplicação requisitada pelo usuário, seja de uma necessidade interna do sistema operacional, requer memória para este processamento (FINKEL, 1988). A memória de um sistema computacional é, portanto, o recurso mais requisitado e que gera o maior número de conflitos entre requisições. Nas atividades de controle executadas pelo gerenciador de processos a memória é vital para armazenar os processos que devem ser executados, e as informações relativas a estes processos, tais como os resultados de processamento matemático, ou os dados relacionados a dispositivos de entrada ou saída. É função, portanto, do gerenciador de memória, manter a alocação e distribuição de memória coesa, impedindo que processos modifiquem ou destruam informações pertencentes a outros. O gerenciamento incorreto de memória é a causa mais comum de falhas em sistemas operacionais (TANEMBAUM, 1992; TANENBAUM, 2001). 2.2.3 Sistemas de Arquivos
Mostrar mais

90 Ler mais

Detecção e bloqueio de acessos indevidos em servidores Web Linux

Detecção e bloqueio de acessos indevidos em servidores Web Linux

b) detecção por anomalias: este método considera que os ataques são ações diferentes das atividades normais do sistema. Este sistema monta um perfil que representa o comportamento rotineiro de um usuário, equipamento ou conexão de rede. Ele monitora a rede e usa várias métricas para determinar quando os dados monitorados estão fora do normal, ou seja, estão fora do perfil padrão. A desvantagem deste método é a geração de um grande número de alarmes falsos devido ao comportamento imprevisível de usuários e do próprio sistema.
Mostrar mais

10 Ler mais

Um sistema de detecção de intrusão de tempo real e baseado em anomalias para redes CAN automotivas

Um sistema de detecção de intrusão de tempo real e baseado em anomalias para redes CAN automotivas

Para uma rede CAN de 500kbps, responder em menos de 36𝜇s permite que o IDS efetivamente impeça que quadros maliciosos sejam enviados pela rede se combinado com uma solução injetora de erros. Apesar da corrupção de um quadro suspeito já ter sido sugerida na literatura como um meio de prevenir um ataque, ainda são necessários estudos sobre o impacto dessa abordagem nos sistemas automotivos, especialmente considerando que um sistema de detecção de intrusão baseado em anomalias é suscetível a falso positivos. É possível que uma abordagem beaseada em CPU também consiga atender ao requisito temporal mencionado. Porém, a fim de atender ao requisito temporal, é necessário ter controle total sobre o processador utilizado ou utilizar um sistema operacional de tempo real (Real-Time Operating System, RTOS), não sendo adequada a utilização de um sistema operacional de uso geral. Entre as vantagens da abordagem em CPU, estariam o custo e uma menor limitação de memória. Apesar disso, possivelmente não seria possível a execução em paralelo de todas as árvores, o que faria o tempo de execução crescer também com o número de árvores utilizadas, tornando um desafio a implementação de uma solução utilizando esta abordagem.
Mostrar mais

66 Ler mais

Modelação da curva de potência no contexto da detecção de anomalias em turbinas eólicas

Modelação da curva de potência no contexto da detecção de anomalias em turbinas eólicas

No geral, os resultados obtidos foram satisfatórios, permitindo a identificação de anomalias. É preciso ter em conta que todas as turbinas estão sujeitas a condições diferentes. Dada a orografia do terreno e a sua disposição no parque eólico é adequando que se faça este estudo individualmente para cada turbina. Quanto aos resultados, embora seja possível identificar anomalias pelo erro, outras não se conseguem. Os erros elevados podem ser resultados de duas situações, ou a curva de potência da turbina está longe da criada pelo modelo de regressão ou, para a dada semana, existirem poucos pontos, por exemplo quando a turbina está parada. Também é preciso perceber que o facto de se estar a trabalhar à semana pode acontecer que a anomalia ocorra nos primeiros dias da semana mas o erro semanal mantém-se baixo porque o resto da semana a turbina está a funcionar corretamente. Um resultado que também é importante é o facto de existirem erros elevados em todas as turbinas para as mesmas semanas por não haver vento na zona onde o parque está situado como por exemplo as semanas 31 e 33 para 2011 como pode ser verificado na figura 3.13 e nas figuras equivalentes das restantes turbinas.
Mostrar mais

76 Ler mais

Modelação da curva de potência no contexto da detecção de anomalias em turbinas eólicas

Modelação da curva de potência no contexto da detecção de anomalias em turbinas eólicas

No geral, os resultados obtidos foram satisfatórios, permitindo a identificação de anomalias. É preciso ter em conta que todas as turbinas estão sujeitas a condições diferentes. Dada a orografia do terreno e a sua disposição no parque eólico é adequando que se faça este estudo individualmente para cada turbina. Quanto aos resultados, embora seja possível identificar anomalias pelo erro, outras não se conseguem. Os erros elevados podem ser resultados de duas situações, ou a curva de potência da turbina está longe da criada pelo modelo de regressão ou, para a dada semana, existirem poucos pontos, por exemplo quando a turbina está parada. Também é preciso perceber que o facto de se estar a trabalhar à semana pode acontecer que a anomalia ocorra nos primeiros dias da semana mas o erro semanal mantém-se baixo porque o resto da semana a turbina está a funcionar corretamente. Um resultado que também é importante é o facto de existirem erros elevados em todas as turbinas para as mesmas semanas por não haver vento na zona onde o parque está situado como por exemplo as semanas 31 e 33 para 2011 como pode ser verificado na figura 3.13 e nas figuras equivalentes das restantes turbinas.
Mostrar mais

76 Ler mais

DETECÇÃO DE ANOMALIAS EM IMPERMEABILIZAÇÕES DE COBERTURAS EM TERRAÇO ATRAVÉS DA TERMOGRAFIA DE INFRAVERMELHOS

DETECÇÃO DE ANOMALIAS EM IMPERMEABILIZAÇÕES DE COBERTURAS EM TERRAÇO ATRAVÉS DA TERMOGRAFIA DE INFRAVERMELHOS

Para a câmara de termograia conseguir detectar as anomalias no elemento em estudo é necessário um diferencial de temperatura signiicativo, entre a superfície desse elemento e a temperatura ambiente. Tanto em laboratório como in situ, esse diferencial térmico foi conseguido através de métodos activos. Em laboratório o aquecimento dos provetes foi alcançado artiicialmente através de uma placa de aquecimento. Para garantir um luxo de calor adequado para a detecção das anomalias, os provetes em estudo foram aquecidos durante um período de 30 minutos (intervalo de tempo estimado após vários testes com o equipamento), procedendo-se à medição com a câmara de termograia logo após ser retirada a placa de aquecimento. Nos ensaios dos provetes e das coberturas exteriores, foi o luxo de calor imposto pelo Sol que permitiu garantir o diferencial térmico necessário à detecção de anomalias, ou seja, o aquecimento das superfícies avaliadas foi conseguido de forma natural. No exterior, para que fossem obtidas imagens termográicas de qualidade, foi evitado o contacto directo entre a câmara de termograia e a radiação solar. A protecção da câmara foi conseguida através de um guarda-sol.
Mostrar mais

10 Ler mais

DOS SISTEMA OPERACIONAL DO COMPUTADOR

DOS SISTEMA OPERACIONAL DO COMPUTADOR

15. Qual o comando do DOS para copiar arquivos. Execute o comando para copiar o arquivo VENTAS.DOC que esta no drive A: para o diretório NASA que esta no drive C:.. Execute o procedimen[r]

8 Ler mais

Visão de profundidade em microscopia óptica para detecção de anomalias em tecidos biológicos

Visão de profundidade em microscopia óptica para detecção de anomalias em tecidos biológicos

Num sistema óptico ideal cada ponto do espaço tridimensional tem uma imagem perfeita num outro espaço, sendo o primeiro, o espaço objecto e o segundo, o espaço imagem. A função geral do sistema óptico é colectar e reformatar uma parte da frente da onda incidente e assim formar a imagem de um objecto. No entanto, nenhum sistema real é capaz de colectar toda a luz emitida por um objecto, resultando num desvio inevitável da direcção de propagação rectilínea. Num sistema óptico real o grau máximo de perfeição possível na formação de imagens é limitado pela difracção (que forma sempre uma mancha mais ou menos difusa). À medida que o comprimento de onda (λ) da radiação diminui, tendo como referência as dimensões físicas do sistema óptico, os efeitos de difracção são cada vez menos significativos. Em meios homogéneos, com o limite teórico em que λ 0 →
Mostrar mais

129 Ler mais

Publicações do PESC Projeto de um Suporte para Sistema Operacional Distribuído com Reconfiguração Dinâmica de Processos

Publicações do PESC Projeto de um Suporte para Sistema Operacional Distribuído com Reconfiguração Dinâmica de Processos

em um ambiente, onde seus processadores possam executar qualquer instrução desse programa, será um programa centralizado. Por exemplo, sistema multiprocessador com um[r]

262 Ler mais

Detecção de anomalias utilizando métodos paramétricos e múltiplos classificadore...

Detecção de anomalias utilizando métodos paramétricos e múltiplos classificadore...

Há também as anomalias coletivas, que são caracterizadas nas situações em que as amostras podem não ser consideradas anomalias quando analisadas individualmente; entretanto, a ocorrência conjunta ou sequencial de algumas amostras é uma anomalia. Um exemplo de anomalia coletiva é apresentado na Figura 2.2, que ilustra um eletrocardio- grama humano [16] onde a região destacada mostra uma anomalia (pouca variação durante um período de tempo anormalmente grande). É importante notar que momentos com pouca variação porém em um curto espaço de tempo não representam anomalias. Algumas anomalias, como a apresentada no exemplo, são especialmente difíceis de se detectar, pois a maior parte das técnicas de detecção de anomalias e aprendizado de máquina consideram apenas exemplos independentes e identicamente distribuídos (iid). Portanto, torna-se necessária uma técnica especializada para detectar anomalias em conjuntos de dados com essa característica, o que não será feito nesse trabalho.
Mostrar mais

78 Ler mais

Estratégias de seleção de atributos para detecção de anomalias em transações eletrônicas

Estratégias de seleção de atributos para detecção de anomalias em transações eletrônicas

Detecção de anomalias é o problema de encontrar padrões que não se comportam de acordo com o esperado. Um dos cenários clássicos é a detecção de fraudes, que consiste em, a partir de um conjunto de observações, aprender um comportamento fraudu- lento. Em transações eletrônicas existe um volume muito grande de informações que podem ser utilizadas para detectar fraudes. Assim, filtrar esse conjunto de informa- ções e escolher as melhores é uma tarefa crucial, conhecida como seleção de atributos. Os melhores métodos de seleção de atributos baseiam-se em informações da classe, ou variável resposta. Contudo, uma característica marcante dos problemas de detecção de anomalias é o alto desbalanceamento entre as classes, o qual gera um novo desa- fio para as técnicas de seleção de atributos, as quais tendem a selecionar os atributos a favor da classe dominante. Neste trabalho foram analisadas estratégias de seleção de atributos para detecção de anomalias em transações eletrônicas, categorizadas em duas abordagens principais. A primeira abordagem consiste na aplicação de 7 métodos de resampling, incluindo um criado neste trabalho, para reduzir o desbalanceamento entre as classes antes da seleção de atributos realizadas por 3 técnicas tradicionais. A segunda abordagem consiste na avaliação de 8 métodos de seleção de atributos conside- rados insensíveis ao desbalanceamento entre as classes, além da criação de um método que utiliza o conceito de Fronteira de Pareto para combinação das métricas. A vali- dação sobre a eficácia dos métodos foi realizada construindo modelos de detecção de fraude, formados por 3 diferentes técnicas de classificação sobre os atributos seleciona- dos pelas distintas abordagens. Para validação desses modelos, realizamos estudos de casos com dados reais, para detecção de fraudes em 2 sistemas de pagamentos eletrô- nico. Através dos experimentos realizados, verificamos nossas hipóteses de pesquisa, observamos comportamentos interessantes sobre a seleção de atributos para detecção de anomalias e construímos modelos mais efetivos para detectar fraudes. Os melhores modelos apresentaram ganhos econômicos de até 57% sobre o cenário real.
Mostrar mais

110 Ler mais

Apostila Sistema Operacional

Apostila Sistema Operacional

Após o sucesso do sistema CTSS, o MIT, o Laboratório Bell e a General Electric (então o maior fabricante de computadores) decidiram embarcar no desenvolvimento de um "computador utilitário", uma máquina que suportasse milhares de usuários em "time-sharing" simultaneamente. O seu modelo era baseado no sistema de distribuição de eletricidade - quando voce precisa de eletricidade, basta por um plug na tomada da parede e a quantidade que voce precise, terá. Os projetistas desse sistema, conhecido como MULTICS (MULTiplexed Information and Computing Service), tinham em mente uma grande máquina que fornecesse serviço de computação para todos em Boston. A idéia de que máquinas tão poderosas quanto o GE44 seriam vendidas como computadores pessoais por alguns milhares de dólares apenas vinte anos mais tarde era, naquela época, pura ficção científica. Para resumir, o MULTICS introduziu muitas idéias inovadoras na literatura da computação, mas a sua construção foi mais difícil do que se esperava. O Laboratório Bell saiu do projeto e a General Electric continuou sozinha. Eventualmente o MULTICS rodava o suficientemente bem para ser usado num ambiente de produção no MIT e em poucas outros lugares, mas a idéia de um computador utilitário falhou. Mesmo assim, o MULTICS teve uma enorme influência nos sistemas subsequentes.
Mostrar mais

66 Ler mais

Aplicação de técnicas de aprendizado de máquina em dados públicos para detecção de anomalias

Aplicação de técnicas de aprendizado de máquina em dados públicos para detecção de anomalias

Os resultados do experimento mostraram tantos aspectos positivos como negativos da aplicac¸˜ao do algoritmo LOF para identificar anomalias em dados reais. Dentre os pontos negativos percebidos durante o experimento, o que maior se destacou foi a existˆencia de grandes conjuntos de dados esparsos. Um motivo disso ´e que a categoria a qual esses dados pertencem ´e muito gen´erica, isto ´e, os valores das despesas que se enquadram nessa categoria podem variar muito. Por exemplo, como mostra a Figura 9, as despesas de consultoria ficaram distribu´ıdas entre v´arios agrupamentos em sequˆencia, sendo alguns muito grande e outros nem tanto, tendo como intervalo de valores em torno de 0 at´e 30 mil. Os diversos valores esparsos existentes nesse intervalo fizeram o algoritmo identificar um alto n´umero de instˆancias falsas positivas, ou seja, classificar dados possivelmente normais como anomalias. Al´em disso, o algoritmo atribuiu a uma grande quantidade de instˆancias um score LOF considerado infinito, isto ´e, maior do que 1000. Apesar disso, o algoritmo tamb´em foi capaz de identificar poss´ıveis instˆancias positivas. Isto ´e, em meio a outliers falsos tamb´em foram reconhecidas anomalias reais, tais como a instˆancia localizada no extremo do eixo x da Figura 9, com valor de R$ 50.000,00 e que recebeu um score outlier de 7.9, o que j´a pode ser considerado alto.
Mostrar mais

58 Ler mais

Show all 10000 documents...

temas relacionados