ПОШУК ПО САЙТУ

Кодування текстової інформації в комп'ютері

Комп'ютер - складний пристрій, за допомогоюякого можна створювати, перетворювати і зберігати інформацію. Однак ЕОМ працює не зовсім зрозумілим для нас способом - графічні, текстові і числові дані зберігаються у вигляді масивів двійкових

кодування текстової інформації
чисел. У даній статті ми розглянемо, як здійснюється кодування текстової інформації.

Те, що для нас є текстом, для ЕОМ -послідовність символів. Кожен символ є певний набір нулів і одиниць. Під символами маються на увазі не тільки малі та великі літери латинського алфавіту, але також і розділові знаки, арифметичні знаки, службові символи, спеціальні позначення і навіть пробіл.

Двійкове кодування текстової інформації

При натисканні певної клавіші на внутрішнійконтролер надсилається електричний сигнал, який перетворюється в двійковий код. Код зіставляється з певним символом, який і виводиться на екран. Для уявлення латинського алфавіту в цифровому форматі була створена міжнародна система кодування ASCII. У ній для запису одного символу необхідний 1 байт, отже, символ складається з восьмизначний послідовності нулів і одиниць. Інтервал запису - від 00000000 до 11111111, тобто кодування текстової інформації за допомогою даної системи дозволяє уявити 256 символів. У більшості випадків цього буває достатньо.

двійкове кодування текстової інформації

ASCII розділена на дві частини. Перші 127 символів (від 00000000 до 01111111) є інтернаціональними і являють собою специфічні символи і букви англійського алфавіту. Друга ж частина - розширення (від 10000000 до 11111111) - призначена для представлення національного алфавіту, написання якого відмінно від латинського.

Кодування текстової інформації в ASCIIпобудовано за принципом зростаючої послідовності, тобто чим більше порядковий номер латинської літери, тим більше значення її ASCII-коду. Цифри і російська частина таблиці побудовані за тим же принципом.

Однак у світі існує ще кілька видівкодування для букв кирилиці. Найпоширеніші - це ЯКІ-8 (восьмібітного кодування, що застосовувалася вже в 70-х роках на перше руіфіцірованних ОС Unix), ISO 8859-5 (розроблена Міжнародним бюро стандартизації), СР тисячі двісті п'ятьдесят один (кодування текстової інформації, що застосовується в

кодування і обробка текстової інформації
сучасних ОС Windows), а також 2-байтоваякодування Unicode, за допомогою якої можна уявити 65536 знаків. Таке різноманіття кодувань обумовлено тим, що всі вони розроблялися в різний час, для різних операційних систем і з різних міркувань. Через це часто виникають труднощі при перенесенні тексту з одного носія на інший - при розбіжності кодувань користувач побачить лише набір незрозумілих значків. Як можна виправити цю ситуацію? В Word, наприклад, при відкритті документа видається повідомлення про проблеми з відображенням тексту і пропонується кілька варіантів перекодування.

Отже, кодування і обробка текстовоїінформації в надрах комп'ютера - процес досить складно організований і трудомісткий. Всі символи будь-якого алфавіту є лише певну послідовність цифр двійковій системи, одна осередок - це один байт інформації.

</ P>
  • оцінка: