Kayıtlar

Ağustos, 2017 tarihine ait yayınlar gösteriliyor

KÖRLER ÜLKESİNE KRAL OLMAK

Resim
Dere tepe, dağ taş dolaşmayı çok seven tek gözlü bir adam varmış. Yürür, yol alır, durmaksızın giderdi. Bir gün, uzaklarda renkleri karmakarışık bir köy görmüş; alacalı, bulacalı, garip bir köy. Yaklaşmış köye doğru. Yolları bir tuhaf, evleri bir tuhaf, insanları bir tuhafmış köyün. Köyün içine girince meseleyi anlamış. Burası körler köyüymüş. Kadınların, erkeklerin, çocukların, velhasıl herkesin gözleri sımsıkı kapalıymış. Gezgin tek gözlü adam burada yaşamaya karar vermiş. “Hiç değilse benim tek gözüm var,” diyormuş. “Körler ülkesinde şaşılar kral olur derler. Ben de bunların başına geçer, yaşarım.” Körlerin gözleri yokmuş ama elleri, kulakları, burunları çok hassasmış. Kendilerine göre kurdukları bir düzen içinde yuvarlanıp gidiyorlarmış. Adam, onların şaşkın hallerine bakıyormuş. Yürümeleri, konuşmaları gerçekten başka türlüymüş. Bir gün, körlerden biri ötekilerden birinin malını çalmış. Sadece tek gözlü adam görmüş bunu. Bağırarak ilan etmiş: “Filanca falancanın malını çaldııı...

Network Data Security System Design with High Security Insurance

Resim
Design Introduction Because of the availability of relatively large bandwidth, computers worldwide are connected via a network. Computer users can transfer information and exchange data easily on the Internet, and as a result, many network data servers have been set up. With this growth, ensuring data security during storage and transmission has become very important. In our project, a channel coding and encryption system protects data, ensuring data security in case of network invalidation. It also prevents data loss for cases in which a single packet of data is revealed (including losing an encryption key). Our goal is to make a new network data security system with high-security insurance. A traditional network data security system (e.g., network-attached storage devices or a storage area network) achieves high security through encryption/decryption algorithms such as advanced encryption standard (AES), data encryption standard (DES), RC6, and other symmetric key crypt...

Bilgi Sisteminin Yazılım Yetenek Olgunluk Modeli ile İlişkisi

Resim
PACE yazılımı Java 2 Enterprise Edition (J2EE) teknolojisinin N-katmanlı olarak uygulanması ile ortaya çıkarılmıştır. Yazılım platform, uygulama sunucusu ve veritabanı bağımsız olarak geliştirilmiştir. CMM (Seviye 3) PACE'in desteklemeyi amaçladığı temel standarttır. Bunun nedeni, CMM modelinin dünya çapında yoğun olarak benimsenmesidir. Buna ek olarak, Yazılım Mühendisliği Enstitüsü (SEI), CMM seviye 3'ü organizasyondaki yazılım mühendisliği ve yönetim süreçlerinin tüm projeler bazında etkin bir şekilde kurumsallaşmasını sağlayan altyapıyı sunan seviye olarak tanımlamaktadır CMM'in her seviyesi Anahtar Süreç Alanlarına (Key Process Areas - KPA) ayrılmıştır. SEI bu alanları, yerine getirildiğinde organizasyonun süreç yeteneğini tesis etmesi açısından önem teşkil eden belirli bir grup hedefin gerçekleştirilmesini sağlayan faaliyetler kümesi olarak tanımlamaktadır  PACE yazılımının CMM seviye 2 ve 3'ün ilgili Anahtar Süreç Alanlarından herbirini ne şekilde ele a...

Cloud Computing Reference Architecture: An Overview

Resim
The Conceptual Reference Model Figure 1 presents an overview of the NIST cloud computing reference architecture, which identifies the major actors, their activities and functions in cloud computing. The diagram depicts a generic high-level architecture and is intended to facilitate the understanding of the requirements, uses, characteristics and standards of cloud computing. As shown in Figure 1, the NIST cloud computing reference architecture defines five major actors: cloud consumer, cloud provider, cloud carrier, cloud auditor and cloud broker. Each actor is an entity (a person or an organization) that participates in a transaction or process and/or performs tasks in cloud computing. Table 1 briefly lists the actors defined in the NIST cloud computing reference architecture. The general activities of the actors are discussed in the remainder of this section, while the details of the architectural elements are discussed in Section 3. Figure 2 illustrates the intera...

Getting Performance Right

Resim
Just having a faster computer isn’t enough to ensure the right level of performance to handle big data. You need to be able to distribute components of your big data service across a series of nodes. See Figure 1 . In distributed computing, a node is an element contained within a cluster of systems or within a rack. A node typically includes CPU, memory, and some kind of disk. However, a node can also be a blade CPU and memory that rely on nearby storage within a rack. Within a big data environment, these nodes are typically clustered together to provide scale. For example, you might start out with a big data analysis and continue to add more data sources. To accommodate the growth, an organization simply adds more nodes into a cluster so that it can scale out to accommodate growing requirements. However, it isn’t enough to simply expand the number of nodes in the cluster. Rather, it is important to be able to send part of the big data analysis to different physical environment...

Ten Big Data Best Practices

Resim
While we are at an early stage in the evolution of big data, it is never too early to get started with good practices so that you can leverage what you are learning and the experience you are gaining. As with every important emerging technology, it is important to understand why you need to leverage the technology and have a concrete plan in place. In this chapter, we provide you with the top-ten best practices you need to understand as you begin the journey to manage big data. Understand Your Goals Many organizations start their big data journey by experimenting with a single project that might provide some concrete benefit. By selecting a project, you have the freedom of testing without risking capital expenditures. However, if all you end up doing is a series of one-off projects, you will likely not have a good plan in place when you begin to understand the value of leveraging big data in the company. Therefore, after you conclude some experiments and have a good initial unde...