اكبر خمسة مراكز معلومات في الولايات المتحدة الأميريكية

اكبر خمسة مراكز معلومات في الولايات المتحدة الامريكية

اكبر خمسة مراكز معلومات في الولايات المتحدة الامريكية

Inside 5 of North America's Largest Datacenters
Via: Wikibon

لماذا لم اشترك Google+

لأن الشبكات الإجتماعية تندرج تحت إطار العولمة غير المرغوب بها ، ولأن الربيع العربي لم يزل في بدايته ولما يات بأكله بعد

تطوّر و إنجازات دولة كوريا الجنوبية في تقنية المعلومات

Korean IT Achievements 

كوريا الجنوبية تعرض منتجاتها التقنية في الولايات المتحدة

وصلت الحكومة الإلكترونية في كوريا الجنوبية إلى المرتبة الأولى في العالم حسب تصنيف الامم المتحدة المتعلق بذلك، فيما يلي عرض مختصر لما يقولة الكوريون المعنيون بذلك حول ما أنجزوه :

Ranked first in UN Global e-Government Survey :Korea has actively pursued e-Government as a crucial means to make the government more competitive, by leveraging the world’s best information technology (IT) including broadband Internet. After laying the groundwork for e-Government, including National Basic Information System (NBIS) in the 1980s and streamlining of applicable laws and institutions in the 1990s, the Korean government implemented e-Government as a major national agenda for the 2000s. It concentrated on 11 major tasks for e-Government (2001 ~ 2002) and 31 major tasks for the e-Government roadmap (2003 ~ 2007). As a result, e-Government has become firmly established in all areas of the Korean government.

المجتمع المعرفي الوطني : مجموعة مخططات يتم تطويرها و مراجعتها بإستمرار، تنفذها الحكومة بجديّة وحكمة ، هدفها نقل المجتمع الكوري إلى حالة مجتمع المعلومات.  من 2009 إلى 2012 هناك 205 مهمات/مشاريع ينبغي على الحكومة  تنفيذها للوصول إلى 5 اهداف، و 20 بنداً على الأجندة الوطنية للدولة.

The Korean government establishes a national informatization master plan every five years for the efficient and systematic promotion of national informatization, based on the “Framework Act on National Informatization (1995).” The 4th National Informatization Master Plan (2008~2012)sets the vision of national informatization for the following five years as “Establishing an Advanced Knowledge Information Society Based on Creativity and Trust,” Five goals and 20 agenda items back up the vision for its early achievement. For the successful execution of the 4th National Informatization Master Plan (2008~2012), the ‘National Informatization Action Plan (2009~2012)’ was established in May 2009. There were 205 tasks provided in order to achieve five goals and 20 agenda items.

من النتائج التي تحققت عبر الحكومة الإلكترونية في كوريا : تطوّر نوعي واضح في فعالية الخدمات وشفافية الإجراءآت الحكومية ، و تبعاً لذلك في إمكانية متابعة المواطنين لمعاملاتهم، وتطوّر العمل بشكل عام.

Korea’s e-Government has produced visible results: the efficiency and transparency of administrative work has significantly improved; administrative civil services have been greatly enhanced; and opportunities for people to participate in the policymaking process have been expanded. Accordingly, the effectiveness of the e-Government of Korea is widely recognized by the international community, and various e-Government systems are being exported to foreign countries. The 2010 UN Global e-Government Survey shows that Korea ranked first among all the member countries, given the highest possible scores in the categories of Online Service Index and the e-Participation Index.

الحكومة الذكيّة : مشروع يحقق للمواطنين في كوريا إمكانيّة الحصول بسهولة، ومجاناّ، على شتى الخدمات الحكومية، مهما كانت كيفية توصيل تلك الخدمة الحكومية للمواطن. بناء على ذلك تطمح الحكومة للتوصل إلى حلول لمشاكل إنخفاض نسبة المواليد، وما يتبع ذلك من المشكلات الناتجة عن شيخوخة المجتمع.، بينما تستجيب في الآن ذاته إلى ما يواجهها من تحديات الأمن والرفاهية الإجتماعية.

With the goal of converging the e-Government services with advanced IT technology until 2015, the Korean government now aims to implement ‘Smart Government,’ through which citizens may enjoy easy and free access to government services regardless of different channels of delivery. Accordingly, Korea will be able to tackle its social problems of low birthrates and the aging society, while actively responding to future issues of social security and public welfare.

مع اطيب الأمنيات للشعب الكوري بالوحدة والتقدم والرقي والإزدهار، ربما تعبّر هذه الصورة الليلية لشبه الجزيرة الكورية بوضوح عن الفرق بين الديمقراطية والإستبداد، التطوّر الذي تسمح به الديمقراطية التي تحققت حيث يسطع النور في سيئول ، مقارنة بالتخلف الذي يقود إليه الإستبداد حيث يعوي الظلام حول بيونغيانغ

أهم الإنجازات

Major Achievements

استمر في القراءة

منظومة روسيّة متطورة جداً من الأقمار الإصطناعية المتخصصة بتحديد الموقع الجغرافي

رئيس الوزراء الروسي فلاديمير بوتين يتفحص جهاز التوجيه الجغرافي المبني على خدمات منظومة جلوناس

رئيس الوزراء الروسي فلاديمير بوتين يتفحص جهاز التوجيه الجغرافي المبني على خدمات منظومة جلوناس لتحديد الموقع الجغرافي

حتى الآن جرى إطلاق 21 قمر إصطناعي فضائي من الأقمار الـ 24 المكونة لمنظومة “جلوناس” الروسية لتحديد الموقع. ومن المخطط له أن يتم إستكمال باقي الأقمار في ربيع عام 2014، وقد بدأت بالفعل عمليات التسويق لها بشكل موسّع حيث  جرى لقاء بين وكالة الفضاء الروسية ووكالة الفضاء البرازيلية لمناقشة رغبة مجموعة من المستثمرين البرازيليين في تطوير خدمات تجارية مبنيّة على إمكانيات المنظومة الروسية

ورغم أن تفاصيل القدرات والإمكانيات الفنيّة لهذه المنظومة تعتبر من الأسرار العسكرية ‘ إلا أن من الواضح أنها أكثر تطوراً بكثير من مثيلتها الأمريكية

GPS

ومثيلتها الأوربيّة

Galileo

فعلى سبيل المثال تقدم المنظومة الروسية

Glonass

دقّة موقع تصل إلى جزء من عشرة أجزاء من المتر ، أي عشرة سينتمترات، خدمة مجّانية مفتوحة للعموم مما يعني أن أجهزة تحديد الموقع سوف تتمكن من توفير خدمات غير مطروقة حالياً سواء في المنظومة الامريكية  أو في المنظمة الاوروبية مبنيّة على تحديد الموقع بشكل دقيق مثل خدمات الإستشعار الخاصة بإصطفاف السيارات على سبيل المثال ، أو خدمات الإستشعار التي يمكن أن تستعملها أجهزة ترتيب الحاويات في السفن والموانئ وغير ذلك

جهاز التوجيه الجغرافي المبني على خدمات منظومة جلوناس لتحديد الموقع الجغرافي

جهاز التوجيه الجغرافي المبني على خدمات منظومة جلوناس لتحديد الموقع الجغرافي

وإذا كانت دقّة الموقوع المجّانيّة المفتوحة للعموم تسمح بخدمات بمثل تلك الدقة فإن بإمكاننا  فقط أن نتخيّل الدقّة الجراحية في الجانب العسكري و الإستخباري لهذه المنظومة

ومن المؤكد أن الكثير من الدول حول العالم  سوف تهتم بهذه المنظومة، خصوصاً للإستعمالات العسكرية ، حيث كان من الواضح أثناء  حرب إحتلال العراق أن المنظومة الأمريكية لتحديد الموقع الجغرافي، يمكن توجيهها لتعطي معلومات خاطئة حسب من و كيف ولماذا يستعملها من يستعملها وبناء على سياسات ميدانية متغيرة حسب الظروف، مما يعني أنها مصدر غير موثوق للإستعمالات العسكرية وبالتالي فإن أي منظومات مرجعيّة جغرافية سوف تجد الكثير من الترحيب والإهتمام حول العالم

http://ru.wikipedia.org/wiki/ГЛОНАСС

Global Internet Activity Map

Global Internet Activity Map

Global Internet Activity Map

Global Internet Traffic Map

Global Internet Traffic Map

تحيّة لمركز التميّز لأمن المعلومات / جامعة الملك سعود

English-Arabic Information Security Dictionary

قاموس أمن المعلومات : لأمن المعلومات أهمية بالغة في حماية المعلومات سواء الشخصية أو الوطنية أو ما يخص قطاع الأعمال و يساهم بشكل فعال في استقرار تطوير الأنظمة واستدامتها وترسيخ ثقة المستفيدين منها. وهذه تحيّة للجهد الذي بذله أصحاب الإختصاص في مركز التميز لأمن المعلومات بجامعة الملك سعود في الاهتمام بأمن المعلومات وتشجيع التوعية وتطوير مستوى أمن المعلومات في العالم العربي حيث قاموا مشكورين بإنتاج أُنتِج هذا القاموس لتحقيق هدفين : أولاً: توضيح مصطلحات أمن المعلومات وشرحها لطالب العلم. ثانياً: توحيد ترجمة المصطلحات الإنجليزية الخاصة بأمن المعلومات وذلك لكي تكون المصادر العربية المتخصصة في أمن المعلومات متجانسة في ترجمة المصطلحات تيسيراً للقارئ العربي. و مع شكرنا الجزيل للأخوة الذين قاموا على إنتاج هذا القاموس قي مركز التميز لأمن المعلومات بجامعة الملك سعود وبالذات لحرصهم على توخي الدقة و استقاء المصطلحات الإنجليزية من عدة مصادر متخصصة. نشدّ على أيديهم ، و نعتبر أن هذا المشروع يستحق الإشادة والإحتفاء والتطوير ليواكب التطور والأحداث. و نحن نشكر كل من ساهم إخراج هذا المشروع للنور و نهيب بالجميع على نشر هذا القاموس وحث الكُتَّاب على التقييد بترجمة المصطلحات المذكورة في القاموس عند الكتابة عن موضوعات أمن المعلومات.


في بحث هام جداً، الأستاذة دينا الكتابي، أستاذة الهندسة الكهربائية في معهد ماساشوستس، خريجة جامعة دمشق 1995، تبدع حلاً لمشكلة توزيع الطيف الكهرومغناطيسي

في بحث هام جداً، الأستاذة البروفيسورة دينا الكتابي، أستاذة الهندسة الكهربائية في معهد ماساشوستس، و خريجة جامعة دمشق 1995، تبدع حلاً مشكلة توزيع الطيف الكهرومغناطيسي.

في بحث هام جداً، الأستاذة البروفيسورة دينا الكتابي، أستاذة الهندسة الكهربائية في معهد ماساشوستس، و خريجة جامعة دمشق 1995، تبدع حلاً مشكلة توزيع الطيف الكهرومغناطيسي.

In the old days, when a new wireless technology came along, it got its own swath of the electromagnetic spectrum: AM radio uses 535 to 1,605 kilohertz, so television got chunks between 54 and 806 megahertz. But the airwaves are getting so crowded that that approach won’t work anymore. MIT researchers in the lab of Dina Katabi, an associate professor of electrical engineering and computer science, are teaching wireless technologies how to share what spectrum is left.

Giving each technology its own frequency band is intrinsically inefficient. In areas where a particular wireless service is underused, or where use varies throughout the day, swaths of spectrum can sit idle for minutes or hours at a time. Historically, there was no practical alternative. But improvements in computer processors, radio hardware, and signal-processing techniques have raised the possibility of devices that can look for unused spectrum and exploit it without stepping on each other’s toes.

Regulatory bodies like the Federal Communications Commission are unlikely to grant additional technologies access to previously allocated spectrum anytime soon. But spectrum sharing could have immediate implications for the so-called white spaces — the frequency bands vacated when television moved from analog to digital. In the United States, the FCC has agreed to leave those bands unlicensed, at least for now, and a coalition of technology companies that includes Google, Microsoft, and Intel hopes to use them for high-speed data connections for portable devices — wherever they are. Technologies that want to use the white spaces, however, will have to show that they won’t interfere with each other, or with devices already authorized to use the same spectrum. One advantage of the MIT researchers’ work is that it takes such a general approach to the problem of spectrum sharing that it should work with most existing wireless data devices — and others yet unimagined.

According to Katabi, spectrum sharing poses two distinct problems. The first is figuring out which transmission channels in a given area are unoccupied. The second is deciding how to use the available channels efficiently.

At last year’s Sigcomm, generally considered the major international conference in the field of networking, Katabi and her colleagues addressed the first question. Traditionally, says Katabi, wireless technologies trying to avoid each other would simply measure the power in a certain frequency band: high power meant that the band was in use, low power meant that it wasn’t. But “the fact that there is power in a particular frequency does not mean that you cannot use it, necessarily,” says Katabi. Different transmitters might be able to use the same frequency, for instance, if their intended receivers are far enough apart. “The opposite is also not true,” Katabi says. “The fact that certain frequencies do not have power does not mean that you can use them, because if you use them, you could potentially leak power to nearby frequencies.” A radio transmitter uses filters to concentrate power into specific frequency bands, but the filters never work perfectly.

So Katabi and her colleagues propose that, instead of looking at the amount of power in a frequency band, wireless devices look at the changing power profiles of other devices sharing the same spectrum. Most wireless devices will cut their transmission rates if they encounter congestion. By tracking power over time, the MIT system determines whether a particular choice of frequency is forcing other devices to slow down.

Choosing a path

On Wednesday, at the Mobicom mobile-computing and -networking conference in Beijing, Hariharan Rahul, a graduate student in Katabi’s lab, presents a solution to the second problem. When a wireless technology has its own small allocation of spectrum, the frequencies it can use are close enough together that their performance will be roughly the same. But in a swath of spectrum shared by multiple technologies, the unoccupied frequencies may be far apart. As a consequence, they could have very different performance. That’s because the same transmission reaches the user along several different paths: some signals travel directly, while others might first bounce off the ground or the walls of buildings. At one frequency, signals arriving over different paths might reinforce each other; at another frequency, they might cancel each other out.

The MIT system provides an efficient way to determine which unoccupied frequencies work best for which users. Most emerging wireless technologies use a technique called orthogonal frequency division multiplexing (OFDM) to increase data transmission rates. OFDM requires senders and receivers to synchronize their transmission frequencies very precisely. To aid that synchronization, OFDM transmissions include known bit patterns. By measuring the difference between the sent pattern and the received pattern, the MIT system determines how well a given frequency will work for a given user and calculates the optimal transmission rate for each frequency. Since the OFDM devices are sending each other those bit patterns anyway, the new system imposes little additional burden on them.

Katabi and Rahul, who worked for Akamai Technologies before coming to MIT, implemented the new system in the lab, on a network that operates in the Wi-Fi spectrum. Data transmission rates on the network more than tripled.

Spectrum sharing in the white spaces is particularly amenable to Katabi and Rahul’s approach. Because digital TV uses spectrum so efficiently, television stations broadcasting over the airwaves no longer need all of the bandwidth allotted them. The result is a host of unused frequency bands between television channels. Because the unlicensed bands are spaced so far apart, they’re likely to exhibit the variable performance that Katabi and Rahul’s system takes into account.

“It’s very important; it’s good stuff,” says Anant Sahai, an assistant professor of electrical engineering and computer sciences at the University of California, Berkeley, who specializes in spectrum sharing. “I can see how this kind of thinking is going to be important in the white spaces.” Sahai adds, however, that Katabi and Rahul’s work is at the “protocol level” — the level of the transmission scheme — and that implementing it in the white spaces will require complementary innovation in hardware and signal processing. Nonetheless, he says, “what’s very encouraging about their work is that they’ve actually put together an implementation to test it out.”

Reference : View article…

http://web.mit.edu/newsoffice/2009/wireless-katabi-0922.html

لنكس اوبنتو يتقدم أمام ويندوز فيستا

ظاهرة جديدة نشاهدها في مجال الدعاية والإعلان عن أجهزة الحاسوب، حيث بدأت شركات تسويق الحواسيب بوضع وسم لينكس اوبنتو بجانب وسم ويندوز فيستا ، لتأكيد أن منتجاتها متوافقة مع لينكس اوبنتو كما هي متوافقة مع ويندوز فيستا.

متوافق مع لينكس اوبنتو

طبعاً ندرك أن هذا نتيجة منطقية وطبيعية للتطور الهائل في نظام التشغيل لينكس اوبنتو ، من حيث سهولة الإستخدام، ومن حيث قدراته وإمكانياته التي نرى أنها تضاهي ويندوز فيستا إن لم تتفوق عليه في شتى المجالات.

الأهم من ذلك أيضاً هو القدرة التنافسية العالية في التكلفة الأولية للشراء ، ومن ثم في التكلفة الدائمة للتشغيل، حيث يتمتع لينكس اوبنتو بميزات لا يمكن لنظام ويندوز فيستا أن يتحداها. إذ يقوم نظام لينكس أصلاً على فلسفة واضحة، هي أن برمجيات التشغيل وكذلك التطبيقات البرمجية المتنوعة يجب أن تكون مجّانيّة وبمتناول الجميع بلا مقابل ، تشجيعاً للتعليم، وخدمة لأطفال العالم، ومستقبل الإنسانية!

ولذلك فإن سعر الشراء لنظام لينكس اوبنتو يساوي صفر ، لأن نظام التشغيل لينكس اوبنتو نظام مفتوح و مجاني للعالم أجمع، ومبني على جهود طوعية وتديره مؤسسات معظمها غير هادفة للربح، بينما تستوفي شركة مايكروسوفت سعراً عالياً جداً مقابل نظام التشغيل ويندوز فيست.

وهذا السعر العالي الذي تستوفيه شركة مايكروسوفت موجود حتى لو لم يدفعه المشتري لشركة مايكروسوفت بشكل مباشر، فإنه يدفعه كجزء من ثمن الحاسوب بشكل غير مباشر عند الشراء

ثم أن كلفة التشغيل فيما بعد الشراء لنظام التشغيل لينكس اوبنتو أقل بما لا يقارن مع كلفة التشغيل فيما بعد الشراء لنظام ويندوز فيستا، وذلك سواء من حيث أسعار وتكاليف إمتلاك التطبيقات العملية المتنوعة ، أو من حيث أسعار وتكاليف عمليات الإدامة وخدمات الدعم الفني، وتكاليف ضمان أمن المعلومات وجاهزيتها، و تكاليف عمليات الإصلاح والصيانة عند الطوارئ، وكذلك أيضاً تكاليف التعطّل والتعطيل والوقت الضائع، حيث يتفوق لينكس اوبنتو تفوقاً كبيراً على ويندوز فيستا.

ومن الجدير بالذكر أن هناك عدداً هائلاً وتنوعاً جميلاً جداً موجود فعلاً في التطبيقات والبرامج الموضوعة لنظام لينكس اوبنتو ، وغالبيتها العظمى متاحة مجّاناً بلا مقابل وتعمل مع نظام التشغيل لينكس اوبنتو بنفس مستوى مثيلاتها باهظة الثمن التي تعمل مع نظام ويندوز فيستا.

حيث يتمتّع نظام لينكس اوبنتو بتوفر أعداد هائلة من البرامج والتطبيقات المجانية عالية الجودة، منها برامج تحرير ومعالجة النصوص، وبرامج الحسابات والمحاسبة ، والبريد الإلكتروني، والمحادثة عبر الإنترنت، وبرامج التصميم، وبرامج الرسم، وبرامج تشغيل ومعالجة الصوت والموسيقى، وبرامج تشغيل وتحرير ومعالجة الفيديو ، ومنظومات ونظم وبرامج وبرمجيّات التطبيقات العلمية المتنوعة في شتى مجالات العلوم كالفيزياء والرياضيات والكيمياء والفلك وغيرها من العلوم والحقول التقنيّة المتنوعة.

وإضافة إلى كل ذلك يتمتّع نظام التشغيل لينكس اوبنتو بتشكيلة لا تضاهى من التطبيقات التي تتعلق بتزويد الخدمات عبر الشبكات ، سواء لشبكة الإنترنت أو للشبكات المحليّة، ومعظم أنواع خدمات المزّودات، بما في ذلك مزّودات البريد الإلكتروني ، والأجمل من ذلك كله أن الغالبية العظمى من هذه البرامج والتطبيقات يمكن الحصول عليها بالمجان من مصادر مفتوحة ومجانيّة

هذه الظاهرة التي بدأت تكتسح إعلانات مبيعات الحواسيب الجديدة في بريطانيا، هي نتيجة تطّور ونمو وقوّة مكتسبة في مسيرة لينكس بشكل عام و لينكس اوبنت بشكل خاص.

مسيرة لينكس ووكذلك مسيرة اوبنتو ليست إلا خيوط في نسيج ثورة المعلومات. وسوف يكون لها أبعادها وانعكاساتها الهائلة على مسيرة ثورة المعلومات ومجتمع المعلومات بشكل عام، وعلى إنتشار ثقافة العلم للجميع، والإنتقال بالمجتمعات -ولاسيما مجتمعات العالم الثالث- من نظام النسق الهرمي القديم إلى النظام الحيوي الخلوي الجديد، خروجاً من دوّامة الفقر والجهل والتخلف، نحو ثاقفة المعلومات وإقتصاد المعلومات، وفيما بعد … أكثر من ذلك.

وعندما تسمح الأجهزة الجديدة للمستخدمين بإختيار أحد نظامي التشغيل عند كل مرة يبدأ أحدهم فيها بتشغيل جهاز الكمبيوتر، سوف تصبح هذه الحريّة المضافة دافعاً ورافداً جديداً في تيار المستقبل الأفضل للجميع.

DARPA wants to build a”National Cyber Range” that begins a “Matrix” like world

وكالة الأبحاث الدفاعية المتقّدمة، وهي تعدّ بمثابة سلاح الكمبيوتر في الجيش الأمريكي، تطلق مشروعاً لإنشاء عالم تقريبي، يستطيع أن يحاكي العالم الفعلي، بما في ذلك محاكاة الكمبيوترات والبشر، فيما يشبه العالم الذي يتخيّله فيلم Matrix المشهور. وهذا المشروع يفوق الإنترنت بحجمه، ويتجاوز أي مشروع تقني آخر ، بمراحل، على الأقل من حيث الإمكانيات التي يتطلبها.

وهناك رابط لوثيقة مواصفات و متطلّبات المشروع ، التي يمكن الحصول عليها من المصدر :
سلاح الكمبيوتر الأمريكي

DARPA wants Matrix style virtual world for cybergeddon

To feature human ‘replicants’, time-machine mode
News Report From The Rigester : By Lewis Page
Source : http://www.theregister.co.uk/2008/05/07/darpa_cyber_range_rfp/

The US military’s famed scientific wingnut farm, DARPA*, has released full details of its planned “National Cyber Range” – a mighty network which could be configured to simulate the cyberspace battlefields of the future. This would allow America’s fighting nerds to train for the net conflicts of tomorrow, mounting attacks on simulated enemies or defending against devastating cyber strikes by the enemies of democracy.

The Cyber Range proposal was trailed last December, but yesterday full details for those wishing to become network killing-house builders were issued (Word file).

Essentially, DARPA seem to be after something not unlike an entire simulated world.

The Range must “enable realistic testing of Internet/Global Information Grid (GIG) scale research [and] simulate national or global communications systems”.

This virtual world must, of course, contain computers – of pretty much any type:

The NCR must be capable of taking a physical computer and rapidly creating a functionally equivalent, logical instance of that machine that can be replicated repeatedly… Given a never-before-seen physical computing device, [the Range must] create logical instantiations of the physical native machine that accurately replicates, not only the software on the machine, but hardware to the interrupt level, chipset, and peripheral cards and devices…

And that’s not all. The Cyber Range must also be populated with simulated human beings to play the parts of users, sysadmins and so forth. DARPA refers to these software sim-people as “replicants”.

Replicants must be capable of implementing multiple user roles… Replicant behavior will change as the network environment changes, as the replicated “outside environment” (i.e. DefCon, InfoCon, execution of war plans, etc) changes, and as network activity changes (detected attacks, degradation of services, etc)… Replicants will simulate physical interaction with device peripherals, such as keyboard and mice… Replicants will drive all common applications…

But all this is merely scene-setting. Moving among the swarming virtual machines and people “injected” into DARPA’s Matrix-esque warzone will be the network combatants of the USA and its enemies – the OpFor, or opposing forces. The Cyber Range agents of OpFor aren’t going to be script kiddies in their underpants operating from bedrooms in their parents’ house. They’re going to be more like Operation Screaming Fist**, or perhaps Agent Smith.

Realistic, sophisticated, nation-state quality offensive and defensive opposition forces… Capabilities include sophisticated cyber activity, from defending national assets, to computer network attack… cyber adversaries [equipped with] a malware library of offensive tools for use by DARPA-authorized individuals on the range [and] a defensive tools library…

Battling these fearsome enemies amid the hapless simulant hordes will be the cream of America’s elite combat geeks, armed with network weapons of fearful potency – or “potentially revolutionary cyber research and development technologies”, as DARPA puts it. The Pentagon’s network gladiators add that “the range must be capable of testing a variety of technology thrusts [and] classified cyber programs”.

Unsurprisingly, with crack Pentagon dorks tooled up with secret cyber thrust packages battling “nation-state quality” opposition packing weapons-grade malware, DARPA expect a lot of virtual devastation and e-blood all over the carpet. Even so, the Range must be able to clean itself up and rebuild instantly – or “sanitize resources securely and rapidly when resources are freed from tests”.

It’s also important that none of the devastating cyberplagues and self-replicating code pestilences unleashed in the Range get out of control. The builders must “ensure data does not spill across tests and testbeds while on the range or archived… [and] ensure a test does not perform an unintended denial of service on other tests”.

And just in case all that wasn’t enough, the Range must also be able to function as a time machine.

Time Dilation/Contraction… [Contractors must] develop technologies to accelerate or decelerate test time (relative to reality); to enable new capabilities (for example, to create bandwidths that are not commercially available today)…

The whole business plainly raises quite a few questions, not least the obvious one: will the Replicants know they are only software running in a giant battle simulation? And how can we be sure we aren’t in the Range already? ®

* Defense Advanced Research Projects Agency

** From the seminal work Neuromancer. As if you didn’t know.

هذا المقطع يوضح كيف تتحول الأبحاث العلمية إلى مشاريع عسكرية حربية:

ولكن، ومع كل ذلك،  يمكرون ويمكر الله والله خير الماكرين !

ربما يجب إعادة كتابة كتب الجامعات في مساقات الهندسة الكهربائية والفيزياء، بسبب إختراع المتفطّنات

المتفطّنات هي النوع الأساسي الرابع من انواع الدارات الكهرابائية الأساسية، ويأتي ترتيب المتفطّنات بعد المقاومات، والمكثّفات، والموصلات. والمتفطّنات كانت موجودة نظرياً على الأقل ، ومشار إليها في أبحاث علمية منذ سنة 1970، غير أن أحداً لم يتمكن من صنعها و إخراجها إلى حيز التطبيق حتى اليوم، حيث تمكن فريق عمل في شركة HP من إنتاجها

ولقد تمكّن الفريق من إنتاجها بواسطة تمرير تيار كهربي في شريحة رقيقة جداّ مغطّاة بطبقة من ثاني اكسيد التيتانيوم في المستوى الثاني ، حيث تتغير شدة مقاومة الشريحة بعد أن يمر فيها التيار، حسب شدة التيار، مما يعني أن الفيزياء و الهندسة الكهربائية مدعوتين اليوم إلى إعادة صياغة كافة الكتب والمراجع حيث تفرض هذه المتفطّنات نفسها على كل شيء

وسوف ينتج عن إكتشاف وإختراع المتفطّنات منتجات ودوائر كهربائية وأجهزة و معدّات جديدة لم يسبق حتى اليوم لأحد أن تخيّلها، وسوف ينتج عنها قوانين جديدية لم يسبق لأحد أن طبّقها

وسوف نرى !

PORTLAND, Ore. — The long-sought after memristor–the “missing link” in electronic circuit theory–has been invented by Hewlett Packard Senior Fellow R. Stanley Williams at HP Labs (Palo Alto, Calif.) Memristors–the fourth passive component type after resistors, capacitors and inductorswere postulated in a seminal 1971 paper in the IEEE Transactions on Circuit Theory by professor Leon Chua at the University of California (Berkeley), but their first realization was just announced today by HP. According to Williams and Chua, now virtually every electronics textbook will have to be revised to include the memristor and the new paradigm it represents for electronic circuit theory.

“My situation was similar to that of the Russian chemist Dmitri Mendeleev who invented the periodic table in 1869,” said Chua. “Mendeleev postulated that there were elements missing from the table, and now all those elements have been found. Likewise, Stanley Williams at HP Labs has now found the first example of the missing memristor circuit element.”

When Chua wrote his seminal paper, he used mathematics to deduce the existence of a fourth circuit element type after resistors, capacitors and inductors, which he called a memristor, because it “remembers” changes in the current passing through it by changing its resistance. Now HP claims to have discovered the first instance of a memristor, which it created with a bi-level titanium dioxide thin-film that changes its resistance when current passes through it.

“This new circuit element solves many problems with circuitry today–since it improves in performance as you scale it down to smaller and smaller sizes,” said Chua. “Memristors will enable very small nanoscale devices to be made without generating all the excess heat that scaling down transistors is causing today.”

HP has already tested the material in its ultra-high-density crossbar switches, which use nanowires to pack a record 100 Gbits onto a single die–compared with 16 Gbits for the highest density flash memory chips extant.

“We have been looking for years for the best material to use in our ultra-dense nanowire crossbar switches, which can fit 100 billion crossbars into a square centimeter. What we have finally realized is that the ideal material is a memristor,” said Williams, primary inventor of the memristor’s titanium-dioxide-based material and founding director of HP’s 12-year-old Information and Quantum Systems Lab, where his team perfected its formulation.

The hold-up over the last 37 years, according to professor Chua, has been a misconception that has pervaded electronic circuit theory. That misconception is that the fundamental relationship in passive circuitry is between voltage and charge. What the researchers contend is that the fundamental relationship is actually between changes-in-voltage, or flux, and charge. Such is the insight that enabled HP to invent the memristor, according to Chua and Williams.

“Electronic theorists have been using the wrong pair of variables all these years–voltage and charge. The missing part of electronic theory was that the fundamental pair of variables is flux and charge,” said Chua. “The situation is analogous to what is called “Aristotle’s Law of Motion, which was wrong, because he said that force must be proportional to velocity. That misled people for 2000 years until Newton came along and pointed out that Aristotle was using the wrong variables. Newton said that force is proportional to acceleration–the change in velocity. This is exactly the situation with electronic circuit theory today. All electronic textbooks have been teaching using the wrong variables–voltage and charge–explaining away inaccuracies as anomalies. What they should have been teaching is the relationship between changes in voltage, or flux, and charge.”

HP invited Chua to speak about his theory a few years ago, but at that time the lab did not tell Chua that they were actively seeking the memristor. Only two weeks ago did Williams tell Chua that he had used the proper variables–flux and charge–to invent the world’s first working memristor.

A memristor works by virtue of hysteresis, whereby its rate of change accelerates as it moves from one state to the other–“on” to “off,” or vice versa. Hysteresis has been explained away by current circuit theory as an anomaly, according to Chua and Williams, whereas its existence is, in fact, a fundamental property of passive circuitry.

“Hysteresis is a tell-tale manifestation of the fourth circuit element–the memristor,” said Chua. “And Stan Williams is very smart to have realized that if you cannot explain something properly, then there must be a better explanation.”

For instance, electrical engineers have known that titanium dioxide changes its resistance in the presence of oxygen–this is the principle behind titanium dioxide oxygen sensors–but they could not explain why.

“They traced its curve, and knew it contained hysteresis, but because they could not explain it, they could only design the simplest of devices using it–sensors,” said Chua. “But now that it has been explained, they will be able to design all types of new circuitry using it. This is a wonderful development.”

Chua predicts that electrical engineers will soon begin discovering all types of new materials that manifest the hysteresis relationship between flux and charge. He predicts that this new era of electronics will be able to solve the problems with scaling–such as using too much power and generating too much heat–that are currently plaguing progress in circuit design.

“The memristor is our salvation, because it works better and better as you make it smaller and smaller,” said Chua. “The era of nanoscale electronics will be enabled by the memristor. This is not just an invention, it is a basic scientific discovery. It has always been there–we just had to face these nanoscale problems to realize its importance.”

The memristor behaves like a non-linear resistor with memory–a small, compact and highly energy-efficient means of creating a memory device. But Chua and Williams claim it is also a new type of circuit element that should enable the creation of new devices never before imagined.

The world’s first memristor invented at HP Labs by Williams and his research team is based on a two-layer sandwich of titanium dioxide films. As a memory element, it works by changing the atomic structure of the films–by coupling the motion of atoms in the material with the movement of electrons through the material. The bottom layer of HP’s material uses a symmetrical lattice of titanium atoms and oxygen atoms, which makes it a good insulator. But the top layer has had oxygen vacancies introduced as a dopant, which makes it into a good conductor–the more vacancies, the more conductive. HP’s secret sauce for creating these oxygen vacancies in titanium dioxide involves using sputter deposition that begins with an excess of oxygen, then cuts back on the oxygen flow to create the layer with vacancies.

By placing the crossbar of nanowires above and below the sandwiched layers, charge can be passed through the material. “The way I discovered the material for our memristor was by studying how titanium dioxide oxygen sensors work–that got me thinking about moving oxygen vacancies around in the material to create a memristor,” said Williams. “By running current through the device, we can push oxygen vacancies from the layer that has them into the layer that does not, thereby changing its resistance by a factor of 1000 or even more, thus switching the memristor ‘on,’ then by reversing the current we can move the vacancies back into the first layer, thereby switching the memristor ‘off’.”

As Chua predicted, Williams is already thinking about creating new types of devices with HP’s crossbar architecture beyond a simple memory device. “If we push current through it hard and fast, it acts like a digital device, but if we run current through it gently and slowly it acts as an analog device,” said Williams. “We are already designing new types of circuits in both the digital and analog domains using our crossbar architecture. In the analog domain, we want to build memristor-based devices that operate in a manner similar to how the synapse works in the brain–neuron-like analog computational elements that could perform control functions where decisions must be made involving comparisons as to whether something is larger or smaller than something else. We are not building a neural network yet, but we think that using the memristor in its analog mode with our crossbar is a pretty good representation of a neural net.”

Later in 2008, HP promises to begin releasing details of how its memristor material works with its already perfected nanoscale crossbar switch architecture in these various types of circuits.

“The memristor is not just a replacement technology for existing memory devices, but will be used to make a whole range of new types of devices that no one has ever thought of before,” said Williams.

Powered by ScribeFire.