Il know-how come strumento di protezione dell'informazione: aspetto giuridico e sociale. Concetto e segni dell'informazione L'informazione nella natura vivente

Oggi esistono molte definizioni diverse del concetto di informazione. Tuttavia, poiché il diritto è un regolatore sociale, non ha senso soffermarsi su quei concetti di informazione che riflettono gli aspetti filosofici o di scienze naturali del concetto di informazione. Un avvocato dovrebbe essere interessato principalmente all'aspetto di qualsiasi fenomeno relativo a come questo fenomeno si manifesta in relazione all'uomo e alla società. Pertanto, la categoria delle informazioni ai fini della ricerca di diritto civile dovrebbe essere considerata proprio dal punto di vista di ciò che è nel processo della vita umana. Ovviamente, il concetto di informazione dominante e più rilevante per la realtà è quello che vede l'essenza dell'informazione come risultato del riflesso della realtà circostante da parte della coscienza di una persona e identifica l'informazione con un'immagine che ha contenuto semantico e un significato simbolico modulo. I segni sono solo una forma di esistenza e un mezzo per trasmettere informazioni. Per una persona, il significato e il contenuto delle informazioni sono di fondamentale importanza. Il termine "conoscenza" riflette, a nostro avviso, l'aspetto più importante di questo contenuto: pragmatico. Infatti, per una persona, qualsiasi informazione è, prima di tutto, conoscenza, valutata dal punto di vista dell'utilità per gli scopi adattivi citati. Questa, ci sembra, è l'essenza dell'informazione.

Nel risolvere il problema della scelta del concetto di “informazione”, questi dovrebbero essere considerati non solo in un contesto scientifico, ma anche tenendo conto della necessità di comprendere e trasformare la realtà. Nella comprensione quotidiana più semplice, il termine “informazione” è solitamente associato ad alcune informazioni, dati, conoscenze, ecc. su qualcosa, su qualcuno. Tradotto dal latino “informatio” significa informazione, spiegazione, presentazione. S.I. Ozhegov fornisce la seguente definizione di informazione: si tratta di informazioni sul mondo circostante e sui processi che si verificano in esso, percepite da una persona o da un dispositivo speciale, e per informazione comprende la conoscenza in qualsiasi area, notizie, messaggi, conoscenza, idee su qualcosa .

Poiché l'informazione è il risultato di un riflesso della realtà, significa che deve contenere non solo conoscenza, ma conoscenza su qualcosa: sulla realtà, sui suoi oggetti e fenomeni. Pertanto, va notato che da un punto di vista funzionale l'informazione è informazione su oggetti e fenomeni della realtà che circonda l'oggetto della cognizione. È da questo punto di vista che l'informazione è definita dalla legge (legge federale del 27 luglio 2006 N 149-FZ “Sull'informazione, sulle tecnologie dell'informazione e sulla protezione delle informazioni”).

Definendo l'informazione come informazione, il legislatore ne indica la natura soggettiva e oggettiva. La natura soggettiva delle informazioni si esprime nel fatto che sono rilevanti o potenzialmente appartengono a qualcuno. Allo stesso tempo, l'informazione è sempre informazione su qualcosa, cioè è sempre oggettiva. A questo proposito, possiamo evidenziare le proprietà che caratterizzano l'informazione come categoria giuridica in base alla sua definizione data nella Legge sull'informazione (stiamo parlando di una definizione giuridica, e non di discussioni scientifiche), queste sono: inalienabilità fisica, significatività e indipendenza delle forme di informativa .

Il posto centrale nella legge sull'informazione è occupato dall'art. 5, denominato “Informazioni come oggetto di rapporti giuridici”, il quale stabilisce che le informazioni possono essere oggetto di diversi rapporti giuridici, come quello pubblico, civile ed altri. Al riguardo, è opportuno rilevare che lo stesso articolo della Legge contiene una delle classificazioni esistenti, suddividendo le informazioni a seconda della possibilità di libero accesso alle stesse da parte di terzi in pubblicamente accessibili e non pubblicamente accessibili (informazione riservata). Il criterio per tale classificazione è il grado di importanza e il grado di accessibilità di determinate informazioni. A questo proposito, come osservato da O.A. Città, va tenuto presente, "...che non esistono informazioni assolutamente accessibili rispetto alle quali è stato istituito l'uno o l'altro regime. Ci saranno sempre ostacoli di fatto o giuridici che renderanno difficile l'accesso a determinati blocchi di informazioni " .

Parlando di informazione, è necessario tenere presenti altre due proprietà che ne determinano il ruolo e il significato in una società ad economia di mercato.

In primo luogo, l'informazione non può essere alienata fisicamente: dal suo produttore e da qualsiasi persona nel cui utilizzo sia finita. Qualsiasi informazione porta conoscenza, che nella sua essenza è inalienabile. Chi li possiede può trasferire la conoscenza ad altre persone (su questo si basa l'intero sistema educativo), pur continuando a rimanerne il proprietario.

In secondo luogo, l'informazione ha la proprietà di essere isolata dal suo produttore. Grazie al vettore materiale, diventa una merce di distribuzione di massa e, di conseguenza, un oggetto di diritto indipendente.

Il legislatore adotta un approccio separato per determinare lo status giuridico delle informazioni considerate benefici immateriali (non patrimoniali) e dei mezzi tangibili di informazioni classificate come valori immobiliari. Per quanto riguarda l'informazione come concetto in generale, si limita al silenzio, ma estende ai media materiali le disposizioni del codice civile della Federazione Russa relative ai diritti di proprietà. Secondo il comma 2 dell'art. 4 della legge della Federazione Russa "Sulle informazioni, l'informatizzazione e la protezione delle informazioni" il regime giuridico delle risorse informative (supporti materiali) è determinato dalle regole che stabiliscono la proprietà di singoli documenti e matrici individuali di documenti, documenti e matrici individuali di documenti nei sistemi informativi. Pertanto, le risorse informative di proprietà dell'organizzazione, come previsto dal comma 5 dell'art. 6 della stessa legge rientrano nel loro patrimonio ai sensi della normativa civile.

Un compito altrettanto importante della scienza del diritto civile oggi è identificare i segni di informazione che la distinguono e la isolano da altri oggetti dei diritti civili. V.A. Kopylov osserva che le proprietà legali delle informazioni comportano determinate conseguenze quando si circolano, sono sancite dalle norme di legge e sono implementate nei rapporti giuridici delle informazioni; Inoltre, le caratteristiche dell'informazione come oggetto dei diritti civili determinano anche le specificità del meccanismo regolamentazione legale rapporti derivanti dall'informazione, caratteristiche del suo regime giuridico. Esistono diversi approcci per determinare le proprietà di base dell'informazione come oggetto di diritti civili. È consuetudine distinguere i seguenti segni di informazione.

L'informazione ha la proprietà dell'inalienabilità fisica. Non può fisicamente essere alienato dal suo produttore o dall'entità conferente. Sulla base di ciò, quando si trasferiscono informazioni da una persona a un'altra, la procedura per la sua alienazione è mediata dal trasferimento dei diritti per utilizzarle e le informazioni vengono trasferite insieme a questi diritti. Tenendo conto di questa caratteristica, V.A. Kopylov suggerisce che quando si formula una regola che regola il processo di alienazione delle informazioni, non si dovrebbe parlare della procedura di alienazione delle informazioni, ma dell'alienazione del diritto di utilizzare le informazioni.

L'informazione è un oggetto complesso e composito, in cui i risultati del lavoro e della creatività sono presenti in proporzioni diverse.

Il prossimo segno di informazione si manifesta nella sua duplice natura . Sta nel fatto che quando vengono messe in circolazione, le informazioni vengono sempre (o molto spesso) visualizzate su un mezzo materiale, e quindi nasce una dualità tra l'informazione e il suo mezzo materiale. Di conseguenza, da un lato, l'informazione è di natura immateriale in quanto risultato principalmente dell'attività mentale, dall'altro è materiale, poiché trova la sua espressione su un mezzo materiale. È questa caratteristica dell'informazione che spesso diventa un ostacolo nella scienza giuridica. Alcuni lo chiamano un oggetto materiale, reale (G.A. Lobanov ). Altri, ad esempio, I.V. Savelyeva , dicono che l'essenza dell'informazione è immateriale e che l'informazione non può essere ridotta al mezzo materiale in cui è incorporata. Sembra che ultimo punto punto di vista è più corretto e giustificato, poiché il valore principale dell'informazione per i soggetti di diritto risiede nell'informazione che la compone, e non nella forma materiale in cui è espressa.

L’informazione non è consumabile; è soggetta ad usura morale, ma non fisica.

Le informazioni sono replicabili. Può essere riprodotto e distribuito in un numero illimitato di copie senza modificarne il contenuto. Ne consegue che, a seguito della diffusione, la stessa informazione può appartenere contemporaneamente ad un numero illimitato di persone.

MM. Rassolov nomina le seguenti caratteristiche che caratterizzano le informazioni come categoria giuridica: una certa indipendenza delle informazioni, la possibilità di un uso ripetuto, la conservazione delle informazioni trasmesse da parte dell'entità trasmittente, la capacità di elaborare, integrare e comprimere, la possibilità di analisi matematica, coerenza e comunicazione.

V.A. Kopylov offre anche una caratteristica come l'esemplarità , con cui intende la possibilità di diffondere l'informazione non da sola, ma su un supporto materiale. Tuttavia, sembra che la scelta di questa funzionalità sia infondata. In primo luogo, questa proprietà dell'informazione deriva dal segno di isolamento, poiché un'istanza non è altro che uno dei modi per oggettivare l'informazione. In secondo luogo, riteniamo che sia necessario distinguere tra la circolazione dell'informazione come bene immateriale e la circolazione del suo supporto materiale. Si tratta di due oggetti indipendenti dei diritti civili, sebbene, come notato in precedenza, siano strettamente correlati tra loro.

Alcuni autori, oltre a quelli citati, sottolineano le seguenti caratteristiche dell'informazione come oggetto indipendente dei diritti civili . Innanzitutto si precisa che le informazioni sono soggettive. È difficile non essere d'accordo con questo. Le informazioni nascono come risultato dell'attività umana, vengono percepite ed elaborate dalla sua coscienza. A questo proposito, esiste sempre la possibilità che l'informazione venga distorta dal soggetto che trasmette o riceve. Le persone percepiscono lo stesso evento in modo diverso. Il rischio che le informazioni cambino a causa di circostanze soggettive è insolitamente alto. Inoltre, l'informazione, dopo essere stata percepita dal soggetto, viene elaborata e diventa parte della sua coscienza. Pertanto, la connessione delle informazioni con l'argomento e la sua natura soggettiva sono evidenti.

Sulla base di quanto precede, possiamo concludere che l'informazione è un bene che ha ugualmente sia proprietà caratteristiche di tutti gli oggetti dei diritti civili sia segni che ci permettono di parlare della necessità di formare un proprio regime giuridico per essa.

L'informazione è informazione su qualcosa

Concetto e tipologie di informazione, trasmissione ed elaborazione, ricerca e archiviazione delle informazioni

L'informazione è, definizione

L'informazione è Qualunque intelligenza, ricevuti e trasmessi, archiviati da varie fonti. - questa è l'intera raccolta di informazioni sul mondo che ci circonda, su tutti i tipi di processi che si verificano in esso che possono essere percepiti da organismi viventi, macchine elettroniche e altri sistemi di informazione.

- Questo informazioni significative su qualcosa, quando anche la forma della sua presentazione è informazione, cioè ha una funzione di formattazione secondo la sua stessa natura.

L'informazione è tutto ciò che può essere integrato con le nostre conoscenze e ipotesi.

L'informazione è informazioni su qualcosa, indipendentemente dalla forma della sua presentazione.

L'informazione è mentale di qualsiasi organismo psicofisico, prodotto da esso quando utilizza qualsiasi mezzo chiamato mezzo di informazione.

L'informazione è informazioni percepite dagli esseri umani e (o) dagli specialisti. dispositivi come riflesso dei fatti del mondo materiale o spirituale in processi comunicazioni.

L'informazione è dati organizzati in modo tale che abbiano senso per la persona che li gestisce.

L'informazione è il significato che una persona attribuisce ai dati in base alle convenzioni conosciute utilizzate per rappresentarli.

L'informazione è informazioni, spiegazioni, presentazioni.

L'informazione è qualsiasi dato o informazione che interessi a qualcuno.

L'informazione è informazioni su oggetti e fenomeni dell'ambiente, i loro parametri, proprietà e stato, che vengono percepiti dai sistemi di informazione (organismi viventi, macchine di controllo, ecc.) in processi vita e lavoro.

Lo stesso messaggio informativo (articolo di giornale, pubblicità, lettera, telegramma, certificato, racconto, disegno, trasmissione radiofonica, ecc.) può contenere quantità diverse di informazioni per persone diverse, a seconda delle loro conoscenze precedenti, del livello di comprensione di questo messaggio e interesse per esso.

Nei casi in cui si parla di automatizzato lavoro con le informazioni tramite qualsiasi dispositivo tecnico, sono interessati non al contenuto del messaggio, ma a quanti caratteri contiene questo messaggio.

L'informazione è

In relazione all'elaborazione dei dati informatici, per informazione si intende una determinata sequenza di designazioni simboliche (lettere, numeri, immagini grafiche e suoni codificati, ecc.), Portanti un carico semantico e presentate in una forma comprensibile al computer. Ogni nuovo simbolo in una tale sequenza di simboli aumenta il volume di informazioni del messaggio.

Attualmente non esiste un’unica definizione di informazione come termine scientifico. Dal punto di vista di vari campi della conoscenza, questo concetto è descritto dal suo insieme specifico di caratteristiche. Ad esempio, il concetto di “informazione” è basilare in un corso di informatica, ed è impossibile definirlo attraverso altri concetti più “semplici” (così come in geometria, ad esempio, è impossibile esprimere il contenuto delle informazioni). concetti base “punto”, “retta”, “piano” attraverso concetti più semplici).

Il contenuto dei concetti fondamentali di base in qualsiasi scienza dovrebbe essere spiegato con esempi o identificato confrontandoli con il contenuto di altri concetti. Nel caso del concetto “informazione”, il problema della sua definizione è ancora più complesso, trattandosi di un concetto scientifico generale. Questo concetto è utilizzato in varie scienze (informatica, cibernetica, biologia, fisica, ecc.), e in ciascuna scienza il concetto di “informazione” è associato a diversi sistemi di concetti.

Concetto di informazione

Nella scienza moderna vengono considerati due tipi di informazioni:

L'informazione oggettiva (primaria) è la proprietà degli oggetti materiali e dei fenomeni (processi) di generare una varietà di stati, che attraverso le interazioni (interazioni fondamentali) vengono trasmessi ad altri oggetti e impressi nella loro struttura.

Le informazioni soggettive (semantiche, semantiche, secondarie) sono il contenuto semantico delle informazioni oggettive su oggetti e processi del mondo materiale, formate dalla coscienza umana con l'aiuto di immagini semantiche (parole, immagini e sensazioni) e registrate su un supporto materiale.

Nel senso quotidiano, l'informazione è informazione sul mondo circostante e sui processi che si verificano in esso, percepiti da una persona o da un dispositivo speciale.

Attualmente non esiste un’unica definizione di informazione come termine scientifico. Dal punto di vista di vari campi della conoscenza, questo concetto è descritto dal suo insieme specifico di caratteristiche. Secondo il concetto di K. Shannon, l’informazione è la rimozione dell’incertezza, cioè Informazioni che dovrebbero rimuovere, in un modo o nell'altro, l'incertezza esistente nell'acquirente prima di riceverlo e ampliare la sua comprensione dell'oggetto con informazioni utili.

Dal punto di vista di Gregory Beton, l'unità elementare di informazione è una "differenza non indifferente" o differenza effettiva per un sistema di percezione più ampio. Chiama “potenziali” quelle differenze che non vengono percepite e “effettive” quelle percepite. “L’informazione consiste in differenze che non sono indifferenti” (c) “Ogni percezione dell’informazione è necessariamente la ricezione di informazioni sulla differenza”. Dal punto di vista dell'informatica, l'informazione ha una serie di proprietà fondamentali: novità, pertinenza, affidabilità, oggettività, completezza, valore, ecc. La scienza della logica si occupa principalmente dell'analisi delle informazioni. La parola “informazione” deriva dal latino informatio, che significa informazione, spiegazione, introduzione. Il concetto di informazione era considerato dai filosofi antichi.

L'informazione è

Prima dell’inizio della Rivoluzione Industriale, determinare l’essenza dell’informazione rimaneva prerogativa dei filosofi. Successivamente, la nuova scienza della cibernetica iniziò a considerare le questioni della teoria dell'informazione.

A volte, per comprendere l'essenza di un concetto, è utile analizzare il significato della parola con cui viene indicato questo concetto. Chiarire la forma interna di una parola e studiare la storia del suo utilizzo può gettare una luce inaspettata sul suo significato, oscurato dal consueto uso "tecnologico" della parola e dalle connotazioni moderne.

La parola informazione è entrata nella lingua russa nell'era petrina. Fu registrato per la prima volta nei “Regolamenti Spirituali” del 1721 nel significato di “idea, concetto di qualcosa”. (Nelle lingue europee è stato stabilito prima - intorno al XIV secolo.)

L'informazione è

In base a questa etimologia, per informazione si può intendere qualsiasi cambiamento significativo di forma o, in altre parole, qualsiasi traccia registrata materialmente, formata dall'interazione di oggetti o forze e suscettibile di comprensione. L’informazione, quindi, è una forma convertita di energia. Il portatore di informazioni è un segno e il metodo della sua esistenza è l'interpretazione: identificare il significato di un segno o di una sequenza di segni.

Il significato può essere un evento ricostruito a partire da un segno che ne ha causato il verificarsi (nel caso di segni “naturali” e involontari, come tracce, testimonianze, ecc.), oppure un messaggio (nel caso di segni convenzionali inerenti alla sfera della lingua). È il secondo tipo di segni che costituisce il corpo della cultura umana, che, secondo una definizione, è "un insieme di informazioni trasmesse non ereditariamente".

L'informazione è

I messaggi possono contenere informazioni su fatti o interpretazione di fatti (dal latino interpretatio, interpretazione, traduzione).

Un essere vivente riceve informazioni attraverso i sensi, così come attraverso la riflessione o l'intuizione. Lo scambio di informazioni tra soggetti è comunicazione o comunicazione (dal latino communicatio, messaggio, trasferimento, derivato a sua volta dal latino communico, rendere comune, comunicare, parlare, connettere).

Da un punto di vista pratico, le informazioni vengono sempre presentate sotto forma di messaggio. Il messaggio informativo è associato alla fonte del messaggio, al destinatario del messaggio e al canale di comunicazione.

Ritornando all'etimologia latina della parola informazione, proviamo a rispondere alla domanda su cosa viene data esattamente la forma qui.

È ovvio che, in primo luogo, si tratta di un certo significato, il quale, essendo inizialmente informe e inespresso, esiste solo potenzialmente e deve essere “costruito” per poter essere percepito e trasmesso.

In secondo luogo, alla mente umana, che è addestrata a pensare in modo strutturato e chiaro. In terzo luogo, a una società che, proprio perché i suoi membri condividono questi significati e li usano insieme, acquisisce unità e funzionalità.

L'informazione è

l'informazione come significato intelligente espresso è conoscenza che può essere immagazzinata, trasmessa ed essere la base per la generazione di altra conoscenza. Le forme di conservazione della conoscenza (memoria storica) sono diverse: dai miti, cronache e piramidi alle biblioteche, musei e database informatici.

Informazioni: informazioni sul mondo che ci circonda, sui processi che si verificano in esso che gli organismi viventi percepiscono, gestori macchine e altri sistemi informativi.

La parola "informazione" è latina. Nel corso della sua lunga vita, il suo significato ha subito un'evoluzione, espandendo o restringendo estremamente i suoi confini. Inizialmente la parola “informazione” significava: “rappresentazione”, “concetto”, poi “informazione”, “trasmissione di messaggi”.

Negli ultimi anni, gli scienziati hanno deciso che il significato consueto (universalmente accettato) della parola “informazione” è troppo elastico e vago, e gli hanno dato il seguente significato: “una misura di certezza in un messaggio”.

L'informazione è

La teoria dell’informazione è stata portata in vita dalle esigenze della pratica. La sua presenza è associata a lavoro"Teoria matematica della comunicazione" di Claude Shannon, pubblicata nel 1946. I fondamenti della teoria dell'informazione si basano sui risultati ottenuti da molti scienziati. Nella seconda metà del 20° secolo, il globo brulicava di informazioni trasmesse lungo i cavi telefonici e telegrafici e i canali radio. Successivamente apparvero i computer elettronici: elaboratori di informazioni. E per quel tempo, il compito principale della teoria dell'informazione era, prima di tutto, aumentare l'efficienza dei sistemi di comunicazione. La difficoltà nel progettare e gestire mezzi, sistemi e canali di comunicazione è che non è sufficiente che il progettista e l'ingegnere risolvano il problema dal punto di vista fisico ed energetico. Da questi punti di vista il sistema può risultare il più avanzato ed economico. Ma quando si creano sistemi di trasmissione, è importante prestare attenzione a quante informazioni passeranno attraverso questo sistema di trasmissione. Dopotutto, le informazioni possono essere misurate quantitativamente, contate. E in tali calcoli agiscono nel modo più consueto: astraono dal significato del messaggio, così come abbandonano la concretezza nelle operazioni aritmetiche a tutti noi familiari (passando dall'addizione di due mele e tre mele all'addizione di numeri in generale: 2+3).

Gli scienziati hanno affermato di "ignorare completamente la valutazione umana delle informazioni". Ad una serie sequenziale di 100 lettere, ad esempio, assegnano un certo significato di informazione, senza prestare attenzione se questa informazione abbia senso e se, a sua volta, abbia senso nell'applicazione pratica. L’approccio quantitativo è la branca più sviluppata della teoria dell’informazione. Secondo questa definizione, una raccolta di 100 lettere (una frase di 100 lettere tratta da un giornale, un'opera di Shakespeare o il teorema di Einstein) contiene esattamente la stessa quantità di informazioni.

Questa definizione di quantità di informazione è estremamente utile e pratica. Corrisponde esattamente al compito dell'ingegnere delle comunicazioni, che deve trasmettere tutte le informazioni contenute nel telegramma inviato, indipendentemente dal valore di tali informazioni per il destinatario. Il canale di comunicazione è senz'anima. Una cosa è importante per il sistema di trasmissione: trasmettere la quantità di informazioni richiesta certo tempo. Come calcolare la quantità di informazioni in un particolare messaggio?

L'informazione è

La stima della quantità di informazioni si basa sulle leggi della teoria della probabilità, più precisamente, viene determinata probabilità eventi. Questo è comprensibile. Un messaggio ha valore e trasporta informazioni solo quando da esso apprendiamo l'esito di un evento di natura casuale, quando è in una certa misura inaspettato. Dopotutto, il messaggio su ciò che è già noto non contiene alcuna informazione. Quelli. Se, ad esempio, qualcuno ti chiama al telefono e dice: "Di giorno è chiaro e di notte è buio", allora un messaggio del genere ti sorprenderà solo con l'assurdità di affermare qualcosa di ovvio e noto a tutti, e non con le notizie che contiene. Un'altra cosa, ad esempio, è il risultato di una gara. Chi arriverà per primo? Il risultato qui è difficile da prevedere Più risultati casuali ha un evento che ci interessa, più prezioso è il messaggio sul suo risultato, più informazioni. Un messaggio relativo a un evento che ha solo due esiti ugualmente possibili contiene una singola unità di informazione chiamata bit. La scelta dell'unità informativa non è casuale. È associato al modo binario più comune di codificarlo durante la trasmissione e l'elaborazione. Proviamo, almeno nella forma più semplificata, a immaginare il principio generale della valutazione quantitativa dell'informazione, che è la pietra angolare di tutta la teoria dell'informazione.

Sappiamo già che la quantità di informazioni dipende da probabilità determinati esiti dell’evento. Se un evento, come dicono gli scienziati, ha due esiti ugualmente probabili, ciò significa che ciascun esito è pari a 1/2. Questa è la probabilità che si ottenga testa o croce lanciando una moneta. Se un evento ha tre esiti ugualmente probabili, la probabilità di ciascuno è 1/3. Si noti che la somma delle probabilità di tutti i risultati è sempre uguale a uno: dopo tutto, tra tutti i possibili risultati si verificherà sicuramente. Un evento, come tu stesso capisci, può avere esiti inegualmente probabili. Quindi, in una partita di calcio tra una squadra forte e una debole, la probabilità che la squadra forte vinca è alta, ad esempio 4/5. ci sono molti meno pareggi, ad esempio 3/20. La probabilità di sconfitta è molto piccola.

Si scopre che la quantità di informazioni è una misura per ridurre l'incertezza di una determinata situazione. Varie quantità di informazioni vengono trasmesse sui canali di comunicazione e la quantità di informazioni che passano attraverso il canale non può essere superiore alla sua capacità. Ed è determinato dalla quantità di informazioni che passano qui nell'unità di tempo. Uno degli eroi del romanzo di Jules Verne "L'isola misteriosa", ha riferito il giornalista Gideon Spillett apparecchio telefonico capitolo della Bibbia in modo che i suoi concorrenti non potessero trarne vantaggio comunicazione telefonica. In questo caso, il canale era completamente caricato e la quantità di informazioni era pari a zero, poiché le informazioni a lui note venivano trasmesse all'abbonato. Ciò significa che il canale era inattivo, trasmettendo un numero di impulsi rigorosamente definito senza caricarli di nulla. Nel frattempo, maggiore è la quantità di informazioni trasportate da ciascuno di un certo numero di impulsi, maggiore è l'utilizzo della capacità del canale. Pertanto, è necessario codificare saggiamente le informazioni, trovare un linguaggio economico e sobrio per trasmettere i messaggi.

Le informazioni vengono “setacciate” nel modo più approfondito. Nel telegrafo, le lettere più frequenti, le combinazioni di lettere e persino intere frasi sono rappresentate da un insieme più breve di zeri e uno, mentre quelle che ricorrono meno frequentemente sono rappresentate da un insieme più lungo. Nel caso in cui la lunghezza della parola in codice viene ridotta per i simboli frequenti e aumentata per quelli rari, si parla di codifica efficace delle informazioni. Ma in pratica, accade spesso che il codice risultante dal "vagliamento" più accurato, il codice è conveniente ed economico, possa distorcere il messaggio a causa di interferenze, cosa che, sfortunatamente, accade sempre nei canali di comunicazione: suono distorsione nel telefono, interferenze atmosferiche in, distorsione o oscuramento dell'immagine in televisione, errori di trasmissione in telegrafo. Questa interferenza, o come lo chiamano gli esperti, rumore, attacca l'informazione. E questo porta alle sorprese più incredibili e, naturalmente, spiacevoli.

Pertanto, per aumentare l'affidabilità nella trasmissione e nell'elaborazione delle informazioni, è necessario introdurre caratteri aggiuntivi, una sorta di protezione contro la distorsione. Loro - questi simboli extra - non portano il contenuto effettivo del messaggio, sono ridondanti. Dal punto di vista della teoria dell'informazione, tutto ciò che rende un linguaggio colorato, flessibile, ricco di sfumature, sfaccettato, multivalore è ridondanza. Quanto è ridondante da questo punto di vista la lettera di Tatyana a Onegin! Quanta informazione in eccesso c'è in esso per un messaggio breve e comprensibile "Ti amo"! E quanto sono accurati dal punto di vista informativo i segnali disegnati a mano, comprensibili a tutti coloro che entrano oggi nella metropolitana, dove al posto di parole e frasi di annunci ci sono segni simbolici laconici che indicano: “Ingresso”, “Uscita”.

A questo proposito è utile ricordare un aneddoto raccontato una volta dal famoso scienziato americano Benjamin Franklin su un cappellaio che invitò i suoi amici a discutere un progetto di segnaletica. Avrebbe dovuto disegnare un cappello sul cartello e scrivere: “. John Thompson, un produttore di cappelli, produce e vende cappelli in contanti. Uno dei miei amici ha notato che le parole "per contanti" soldi" non sono necessari: un simile promemoria sarebbe offensivo acquirente. Un altro ha anche trovato superflua la parola “vende”, poiché è ovvio che il cappellaio vende cappelli e non li regala gratuitamente. Il terzo pensava che le parole “fabbricante di cappelli” e “fa cappelli” fossero una tautologia inutile, e le ultime parole furono scartate. Il quarto ha suggerito di eliminare anche la parola "cappellaio": il cappello dipinto dice chiaramente chi è John Thompson. Infine, il quinto ha assicurato che per acquirente non faceva assolutamente alcuna differenza se il cappellaio si chiamasse John Thompson o no, e propose di fare a meno di questa indicazione. Così, alla fine, sull'insegna non rimase altro che il cappello. Naturalmente, se le persone utilizzassero solo questo tipo di codici, senza ridondanza nei messaggi, tutti i "moduli di informazione" - libri, rapporti, articoli - sarebbero estremamente brevi. Ma perderebbero in chiarezza e bellezza.

Le informazioni possono essere suddivise in tipologie secondo diversi criteri: in verità: vero e falso;

attraverso la percezione:

Visivo: percepito dagli organi della vista;

Uditivo: percepito dagli organi dell'udito;

Tattile: percepito dai recettori tattili;

Olfattivo - percepito dai recettori olfattivi;

Gustativo - percepito dalle papille gustative.

secondo il modulo di presentazione:

Testo: trasmesso sotto forma di simboli destinati a denotare lessemi della lingua;

Numerico - sotto forma di numeri e segni che indicano operazioni matematiche;

Grafica: sotto forma di immagini, oggetti, grafici;

Suono: trasmissione orale o registrata di lessemi linguistici mediante mezzi uditivi.

intenzionalmente:

Messa: contiene informazioni banali e opera con una serie di concetti comprensibili alla maggior parte della società;

Speciale: contiene un insieme specifico di concetti; quando utilizzato, vengono trasmesse informazioni che potrebbero non essere comprensibili alla maggior parte della società, ma che sono necessarie e comprensibili in un quadro ristretto gruppo sociale dove utilizzato questa informazione;

Segreto: trasmesso a una ristretta cerchia di persone e attraverso canali chiusi (protetti);

Personale (privato): un insieme di informazioni su una persona che determina lo stato sociale e i tipi di interazioni sociali all'interno della popolazione.

per valore:

Rilevante: informazioni preziose in un dato momento nel tempo;

Affidabile: informazioni ottenute senza distorsioni;

Comprensibile: informazioni espresse in un linguaggio comprensibile a coloro a cui sono destinate;

Completo: informazioni sufficienti per prendere la giusta decisione o comprensione;

Utile: l'utilità delle informazioni è determinata dal soggetto che ha ricevuto le informazioni in base all'ambito delle possibilità di utilizzo.

Il valore dell'informazione nei diversi campi del sapere

Oggigiorno nella teoria dell'informazione vengono sviluppati molti sistemi, metodi, approcci e idee. Tuttavia, gli scienziati ritengono che nuove direzioni nella teoria dell'informazione verranno aggiunte a quelle moderne e appariranno nuove idee. Come prova della correttezza dei loro presupposti, citano la natura "viva" e in via di sviluppo della scienza, sottolineando che la teoria dell'informazione viene introdotta sorprendentemente rapidamente e fermamente in una varietà di campi conoscenza umana. La teoria dell'informazione è penetrata nella fisica, nella chimica, nella biologia, nella medicina, nella filosofia, nella linguistica, nella pedagogia, nell'economia, nella logica, nelle scienze tecniche e nell'estetica. Secondo gli stessi esperti, la dottrina dell'informazione, nata per esigenze della teoria delle comunicazioni e della cibernetica, ha varcato i loro confini. E ora, forse, abbiamo il diritto di parlare di informazione come concetto scientifico che mette nelle mani dei ricercatori un metodo teorico e informativo con cui si può penetrare in molte scienze della natura vivente e inanimata, della società, che non solo permettono di guardare tutti i problemi da una nuova prospettiva, ma anche di vedere ciò che non si è ancora visto. Ecco perché il termine "informazione" si è diffuso ai nostri tempi, diventando parte di concetti come sistema informativo, cultura dell'informazione, anche l’etica dell’informazione.

Molte discipline scientifiche utilizzano la teoria dell'informazione per evidenziare nuove direzioni nelle vecchie scienze. È così che sono nate, ad esempio, la geografia dell’informazione, l’economia dell’informazione e il diritto dell’informazione. Ma il termine "informazione" ha acquisito un'importanza estremamente grande in connessione con lo sviluppo della più recente tecnologia informatica, l'automazione del lavoro mentale, lo sviluppo di nuovi mezzi di comunicazione ed elaborazione delle informazioni e soprattutto con l'emergere dell'informatica. Uno dei compiti più importanti della teoria dell'informazione è lo studio della natura e delle proprietà delle informazioni, la creazione di metodi per la sua elaborazione, in particolare la trasformazione di vari informazioni moderne nei programmi per computer, con l'aiuto dei quali avviene l'automazione del lavoro mentale: una sorta di rafforzamento dell'intelligenza, e quindi lo sviluppo delle risorse intellettuali della società.

La parola “informazione” deriva dal latino informatio, che significa informazione, spiegazione, introduzione. Il concetto di “informazione” è basilare in un corso di informatica, ma è impossibile definirlo attraverso altri concetti più “semplici”. Il concetto di “informazione” è utilizzato in varie scienze, e in ogni scienza il concetto di “. informazione” è associata a diversi sistemi di concetti. Informazioni in biologia: la biologia studia la natura vivente e il concetto di “informazione” è associato al comportamento appropriato degli organismi viventi. Negli organismi viventi l'informazione viene trasmessa e immagazzinata utilizzando oggetti di diversa natura fisica (stato del DNA), che sono considerati segni di alfabeti biologici. Le informazioni genetiche vengono ereditate e archiviate in tutte le cellule degli organismi viventi. Approccio filosofico: l'informazione è interazione, riflessione, cognizione. Approccio cibernetico: l'informazione è caratteristiche manager segnale trasmesso su una linea di comunicazione.

Il ruolo dell'informazione in filosofia

Il tradizionalismo del soggettivo dominava costantemente nelle prime definizioni dell'informazione come categoria, concetto, proprietà del mondo materiale. L'informazione esiste al di fuori della nostra coscienza e può riflettersi nella nostra percezione solo come risultato dell'interazione: riflessione, lettura, ricezione sotto forma di segnale, stimolo. L'informazione non è materiale, come tutte le proprietà della materia. L'informazione sta nel seguente ordine: materia, spazio, tempo, sistematicità, funzione, ecc., che sono i concetti fondamentali di una riflessione formalizzata della realtà oggettiva nella sua distribuzione e variabilità, diversità e manifestazioni. L'informazione è una proprietà della materia e ne riflette le proprietà (stato o capacità di interagire) e la quantità (misura) attraverso l'interazione.

Da un punto di vista materiale, l'informazione è l'ordine degli oggetti nel mondo materiale. Ad esempio, l'ordine delle lettere su un foglio di carta secondo determinate regole è un'informazione scritta. L'ordine in cui i punti multicolori appaiono su un foglio di carta secondo determinate regole è informazioni grafiche. L'ordine delle note musicali è un'informazione musicale. L'ordine dei geni nel DNA è un'informazione ereditaria. L'ordine dei bit in un computer è l'informazione del computer, ecc. e così via. Per effettuare lo scambio di informazioni è richiesta la presenza delle condizioni necessarie e sufficienti.

L'informazione è

Le condizioni necessarie:

La presenza di almeno due oggetti diversi del mondo materiale o immateriale;

La presenza di una proprietà comune tra gli oggetti che consente di identificarli come portatori di informazioni;

La presenza di una proprietà specifica negli oggetti che consente loro di distinguere gli oggetti l'uno dall'altro;

La presenza di una proprietà spaziale che consente di determinare l'ordine degli oggetti. Ad esempio, la disposizione delle informazioni scritte su carta è una proprietà specifica della carta che consente di disporre le lettere da sinistra a destra e dall'alto verso il basso.

C'è una sola condizione sufficiente: la presenza di un soggetto in grado di riconoscere le informazioni. Questo è l’uomo e la società umana, società di animali, robot, ecc. Un messaggio informativo viene costruito selezionando copie di oggetti da una base e disponendo questi oggetti nello spazio in un determinato ordine. La lunghezza del messaggio informativo è definita come il numero di copie degli oggetti base ed è sempre espressa come numero intero. È necessario distinguere tra la lunghezza di un messaggio informativo, che è sempre misurata in un numero intero, e la quantità di conoscenza contenuta in un messaggio informativo, che è misurata in un'unità di misura sconosciuta. Da un punto di vista matematico, l'informazione è una sequenza di numeri interi scritti in un vettore. I numeri sono il numero dell'oggetto nella base informativa. Il vettore è detto invariante informativo poiché non dipende dalla natura fisica degli oggetti base. Lo stesso messaggio informativo può essere espresso in lettere, parole, frasi, file, immagini, note, canzoni, videoclip e qualsiasi combinazione di quanto sopra.

L'informazione è

Il ruolo dell'informazione in fisica

le informazioni sono informazioni sul mondo circostante (oggetto, processo, fenomeno, evento), che è oggetto di trasformazione (inclusa memorizzazione, trasmissione, ecc.) e viene utilizzata per sviluppare comportamenti, per il processo decisionale, per la gestione o per l'apprendimento.

Gli elementi caratteristici delle informazioni sono i seguenti:

Questa è la risorsa più importante della produzione moderna: riduce il bisogno di terra, manodopera, capitale e riduce il consumo di materie prime ed energia. Quindi, ad esempio, se hai la possibilità di archiviare i tuoi file (cioè avere tali informazioni), non devi spendere soldi per acquistare nuovi floppy disk;

Le informazioni danno vita a nuove produzioni. Ad esempio, l'invenzione del raggio laser è stata la ragione della nascita e dello sviluppo della produzione di dischi laser (ottici);

L'informazione è una merce e non viene persa dopo la vendita. Quindi, se uno studente comunica al suo amico informazioni sull'orario delle lezioni durante il semestre, non perderà questi dati per se stesso;

Le informazioni aggiungono valore ad altre risorse, in particolare alla manodopera. Infatti, un lavoratore con un titolo di studio superiore è valutato più di uno con un titolo di studio secondario.

Come segue dalla definizione, l’informazione è sempre associata a tre concetti:

La fonte dell'informazione è quell'elemento del mondo circostante (oggetto, fenomeno, evento), l'informazione su cui è oggetto di trasformazione. Pertanto, la fonte di informazioni che il lettore di questo libro di testo riceve attualmente è l'informatica come sfera dell'attività umana;

L'acquirente dell'informazione è quell'elemento del mondo circostante che utilizza l'informazione (per sviluppare comportamenti, prendere decisioni, gestire o apprendere). L'acquirente di queste informazioni è il lettore stesso;

Un segnale è un mezzo materiale che registra informazioni per trasferirle dalla sorgente al destinatario. In questo caso il segnale è di natura elettronica. Se uno studente prende questo manuale dalla biblioteca, le stesse informazioni saranno su carta. Dopo essere state lette e ricordate dallo studente, le informazioni acquisiranno un altro supporto: quello biologico, quando verranno “registrate” nella memoria dello studente.

Il segnale è l'elemento più importante in questo circuito. Le forme della sua presentazione, nonché le caratteristiche quantitative e qualitative delle informazioni in esso contenute, che sono importanti per l'acquirente delle informazioni, sono discusse ulteriormente in questa sezione del libro di testo. Le principali caratteristiche di un computer come strumento principale che mappa la fonte di informazione in un segnale (link 1 in figura) e “porta” il segnale al destinatario dell'informazione (link 2 in figura) sono riportate nella sezione Computer . La struttura delle procedure che implementano i collegamenti 1 e 2 e compongono il processo informativo è oggetto di considerazione nella parte Processo Informativo.

Gli oggetti del mondo materiale sono in uno stato di cambiamento continuo, caratterizzato dallo scambio di energia tra l'oggetto e l'ambiente. Un cambiamento nello stato di un oggetto porta sempre a un cambiamento nello stato di qualche altro oggetto ambientale. Questo fenomeno, indipendentemente da come, quali stati e quali oggetti siano cambiati, può essere considerato come la trasmissione di un segnale da un oggetto a un altro. La modifica dello stato di un oggetto quando gli viene trasmesso un segnale è chiamata registrazione del segnale.

Un segnale o una sequenza di segnali forma un messaggio che può essere percepito dal destinatario in una forma o nell'altra, nonché nell'uno o nell'altro volume. Informazione in fisica è un termine che generalizza qualitativamente i concetti di “segnale” e “messaggio”. Se segnali e messaggi possono essere quantificati, allora possiamo dire che segnali e messaggi sono unità di misura del volume di informazioni. Messaggio (segnale) sistemi diversi interpretato a modo suo. Ad esempio, un segnale acustico lungo e due brevi nella terminologia del codice Morse corrisponde alla lettera de (o D), nella terminologia BIOS della società premiata si tratta di un malfunzionamento della scheda video.

L'informazione è

Il ruolo dell'informazione in matematica

In matematica, la teoria dell'informazione (teoria matematica della comunicazione) è una sezione della matematica applicata che definisce il concetto di informazione, le sue proprietà e stabilisce relazioni limitanti per i sistemi di trasmissione dei dati. I rami principali della teoria dell'informazione sono la codifica della sorgente (codifica di compressione) e la codifica del canale (resistente al rumore). La matematica è più di una disciplina scientifica. Crea un linguaggio unificato per tutta la scienza.

L'oggetto della ricerca matematica sono oggetti astratti: numero, funzione, vettore, insieme e altri. Inoltre, la maggior parte di essi viene introdotta assiomaticamente (assioma), ad es. senza alcun collegamento con altri concetti e senza alcuna definizione.

L'informazione è

le informazioni non sono incluse nell’ambito della ricerca matematica. Tuttavia, la parola "informazione" è usata in termini matematici: autoinformazione e informazione reciproca, legate alla parte astratta (matematica) della teoria dell'informazione. Tuttavia, nella teoria matematica il concetto di "informazione" è associato esclusivamente a oggetti astratti - variabili casuali, mentre nella moderna teoria dell'informazione questo concetto è considerato in modo molto più ampio - come una proprietà degli oggetti materiali. La connessione tra questi due termini identici è innegabile. Era l'apparato matematico dei numeri casuali utilizzato dall'autore della teoria dell'informazione, Claude Shannon. Lui stesso intende con il termine “informazione” qualcosa di fondamentale (irriducibile). La teoria di Shannon presuppone intuitivamente che l'informazione abbia un contenuto. Le informazioni riducono l’incertezza complessiva e l’entropia dell’informazione. La quantità di informazioni è misurabile. Tuttavia, mette in guardia i ricercatori dal trasferire meccanicamente concetti dalla sua teoria ad altri settori della scienza.

“La ricerca di modi per applicare la teoria dell’informazione in altri campi della scienza non si riduce a un banale trasferimento di termini da un campo della scienza a un altro. Questa ricerca viene effettuata in un lungo processo di presentazione di nuove ipotesi e della loro verifica sperimentale .” K. Shannon.

L'informazione è

Il ruolo dell'informazione nella cibernetica

Il fondatore della cibernetica, Norbert Wiener, parlava di informazioni in questo modo:

l'informazione non è materia o energia, l'informazione è informazione." Ma la definizione fondamentale di informazione, che ha dato in molti dei suoi libri, è la seguente: l'informazione è una designazione del contenuto che riceviamo dal mondo esterno, nel processo di adattando noi e i nostri sentimenti.

L’informazione è il concetto base della cibernetica, così come l’informazione economica è il concetto base della cibernetica economica.

Esistono molte definizioni di questo termine, sono complesse e contraddittorie. La ragione, ovviamente, è che la cibernetica come fenomeno è studiata da diverse scienze, e la cibernetica è solo la più giovane di queste. L'informazione è oggetto di studio di scienze come la scienza del management, la matematica, la genetica e la teoria dei mass media (stampa, Radio, televisione), l'informatica, che si occupa dei problemi dell'informazione scientifica e tecnica, ecc. Infine, recentemente i filosofi hanno mostrato un grande interesse per i problemi dell'informazione: tendono a considerare l'informazione come una delle principali proprietà universali della materia, associata con il concetto di riflessione. Tutte le interpretazioni del concetto di informazione presuppongono l'esistenza di due oggetti: la fonte dell'informazione e l'acquirente (destinatario) dell'informazione. Il trasferimento dell'informazione dall'uno all'altro avviene con l'aiuto di segnali che, in generale, potrebbe non avere alcun collegamento fisico con il suo significato: questa comunicazione è determinata di comune accordo. Ad esempio, suonare la campana della veche significava che ci si doveva radunare in piazza, ma a chi non conosceva quest'ordine non si comunicava alcuna informazione.

In una situazione con campana veche, chi partecipa all'accordo sul significato del segnale sa che al momento possono esserci due alternative: l'incontro veche avrà luogo oppure no. Oppure, nel linguaggio della teoria dell'informazione, un evento incerto (veche) ha due esiti. Il segnale ricevuto porta ad una diminuzione dell'incertezza: la persona ora sa che l'evento (sera) ha un solo risultato: avrà luogo. Tuttavia, se si sapesse in anticipo che l'incontro si sarebbe svolto a quell'ora, la campana non avrebbe annunciato nulla di nuovo. Ne consegue che quanto meno probabile (cioè più inaspettato) è il messaggio, tanto più informazioni contiene, e viceversa, tanto maggiore è la probabilità dell’esito prima che si verifichi l’evento, tanto meno informazioni contiene. Più o meno lo stesso ragionamento fu fatto negli anni '40. XX secolo all’emergere di una teoria statistica, o “classica”, dell’informazione, che definisce il concetto di informazione attraverso la misura di riduzione dell’incertezza della conoscenza circa il verificarsi di un evento (questa misura era chiamata entropia). Le origini di questa scienza furono N. Wiener, K. Shannon e gli scienziati sovietici A. N. Kolmogorov, V. A. Kotelnikov e altri. Furono in grado di derivare leggi matematiche per misurare la quantità di informazioni, e quindi concetti come capacità del canale e capacità di archiviazione di dispositivi I., ecc., che servirono come potente incentivo per lo sviluppo della cibernetica come scienza e della tecnologia informatica elettronica come applicazione pratica delle conquiste della cibernetica.

Per quanto riguarda la determinazione del valore e dell'utilità delle informazioni per il destinatario, ci sono ancora molti aspetti irrisolti e poco chiari. Se partiamo dalle esigenze della gestione economica e, quindi, della cibernetica economica, allora l’informazione può essere definita come tutte quelle informazioni, conoscenze e messaggi che aiutano a risolvere un particolare problema gestionale (cioè a ridurre l’incertezza dei suoi risultati). Quindi si aprono alcune opportunità per valutare le informazioni: sono più utili, più preziose, prima o con meno costi porta ad una soluzione del problema. Il concetto di informazione è vicino al concetto di dato. Tuttavia, c'è una differenza tra loro: i dati sono segnali da cui è ancora necessario estrarre informazioni. L'elaborazione dei dati è il processo per portarli in una forma adatta a questo scopo.

Il processo del loro trasferimento dalla fonte al destinatario e la percezione come informazione può essere considerato come un passaggio attraverso tre filtri:

Fisico o statistico (limitazione puramente quantitativa della capacità del canale, indipendentemente dal contenuto dei dati, cioè dal punto di vista sintattico);

Semantica (selezione di quei dati che possono essere compresi dal destinatario, cioè corrispondono al thesaurus della sua conoscenza);

Pragmatico (selezione tra le informazioni comprese di quelle utili per risolvere un dato problema).

Ciò è chiaramente mostrato nel diagramma tratto dal libro di E. G. Yasin sull’informazione economica. Di conseguenza, si distinguono tre aspetti dello studio dei problemi linguistici: sintattico, semantico e pragmatico.

In base al contenuto, le informazioni sono suddivise in socio-politiche, socio-economiche (comprese le informazioni economiche), scientifiche e tecniche, ecc. In generale, esistono molte classificazioni delle informazioni e si basano su basi diverse; Di norma, a causa della vicinanza dei concetti, le classificazioni dei dati sono costruite allo stesso modo. Ad esempio, le informazioni sono divise in statiche (costanti) e dinamiche (variabili) e i dati sono suddivisi in costanti e variabili. Un'altra divisione è quella delle informazioni primarie, derivate e di output (anche i dati sono classificati allo stesso modo). La terza divisione è I. controllare e informare. Quarto: ridondante, utile e falso. Quinto: completo (continuo) e selettivo. Questa idea di Wiener dà un'indicazione diretta dell'oggettività dell'informazione, vale a dire la sua esistenza in natura è indipendente dalla coscienza umana (percezione).

L'informazione è

La cibernetica moderna definisce l'informazione oggettiva come la proprietà oggettiva degli oggetti e dei fenomeni materiali di generare una varietà di stati che, attraverso le interazioni fondamentali della materia, vengono trasmessi da un oggetto (processo) a un altro e sono impressi nella sua struttura. Un sistema materiale in cibernetica è considerato come un insieme di oggetti che a loro volta possono trovarsi in stati diversi, ma lo stato di ciascuno di essi è determinato dagli stati degli altri oggetti del sistema.

L'informazione è

In natura, molti stati di un sistema rappresentano informazioni; gli stati stessi rappresentano il codice primario, o codice sorgente. Pertanto, ogni sistema materiale è una fonte di informazione. La cibernetica definisce l'informazione soggettiva (semantica) come il significato o il contenuto di un messaggio.

Il ruolo dell'informazione nell'informatica

L'oggetto della scienza sono i dati: metodi della loro creazione, archiviazione, elaborazione e trasmissione. Contenuto (anche: “contenuto” (nel contesto), “contenuto del sito”) è un termine che indica tutti i tipi di informazioni (sia testuali che multimediali - immagini, audio, video) che compongono il contenuto (visualizzato, per il visitatore, contenuto ) del sito web. Viene utilizzato per separare il concetto di informazione che costituisce la struttura interna di una pagina/sito (codice) da ciò che alla fine verrà visualizzato sullo schermo.

La parola “informazione” deriva dal latino informatio, che significa informazione, spiegazione, introduzione. Il concetto di “informazione” è basilare in un corso di informatica, ma è impossibile definirlo attraverso altri concetti più “semplici”.

Si possono distinguere i seguenti approcci per la determinazione delle informazioni:

Tradizionale (ordinario) - utilizzato in informatica: l'informazione è informazione, conoscenza, messaggi sullo stato delle cose che una persona percepisce dal mondo esterno utilizzando i sensi (vista, udito, gusto, olfatto, tatto).

Probabilistico - utilizzato nella teoria dell'informazione: l'informazione è informazione su oggetti e fenomeni dell'ambiente, i loro parametri, proprietà e stato, che riducono il grado di incertezza e incompletezza della conoscenza su di essi.

Le informazioni vengono archiviate, trasmesse ed elaborate in forma simbolica (segno). Le stesse informazioni possono essere presentate in diverse forme:

Scrittura di segni, composta da vari segni, tra i quali si distinguono quelli simbolici sotto forma di testo, numeri, speciali. caratteri; grafico; tabellare, ecc.;

Sotto forma di gesti o segnali;

Forma verbale orale (conversazione).

Le informazioni vengono presentate utilizzando le lingue come sistemi di segni, che sono costruiti sulla base di un alfabeto specifico e dispongono di regole per eseguire operazioni sui segni. La lingua è un sistema di segni specifico per la presentazione delle informazioni. Esistere:

Le lingue naturali sono lingue parlate in forma parlata e scritta. In alcuni casi, la lingua parlata può essere sostituita dalla lingua delle espressioni facciali e dei gesti, dalla lingua dei segni speciali (ad esempio, i segnali stradali);

Le lingue formali sono lingue speciali per varie aree dell'attività umana, caratterizzate da un alfabeto rigorosamente fisso e regole grammaticali e sintattiche più rigide. Questo è il linguaggio della musica (note), il linguaggio della matematica (numeri, simboli matematici), sistemi numerici, linguaggi di programmazione, ecc. La base di ogni lingua è l'alfabeto, un insieme di simboli/segni. Il numero totale di simboli dell'alfabeto è solitamente chiamato potenza dell'alfabeto.

Supporto di memorizzazione: un mezzo o un corpo fisico per la trasmissione, l'archiviazione e la riproduzione delle informazioni. (Questi sono elettrici, luminosi, termici, acustici, Radio segnali, dischi magnetici e laser, pubblicazioni stampate, fotografie, ecc.)

I processi informativi sono processi associati alla ricezione, archiviazione, elaborazione e trasmissione delle informazioni (ovvero, azioni eseguite con le informazioni). Quelli. Si tratta di processi durante i quali cambia il contenuto delle informazioni o la forma della sua presentazione.

Per garantire il processo informativo sono necessari una fonte di informazione, un canale di comunicazione e un acquirente di informazioni. La fonte trasmette (invia) informazioni e il ricevitore le riceve (percepisce). Le informazioni trasmesse viaggiano dalla sorgente al ricevitore utilizzando un segnale (codice). La modifica del segnale consente di ottenere informazioni.

Essendo oggetto di trasformazione e utilizzo, l'informazione è caratterizzata dalle seguenti proprietà:

La sintassi è una proprietà che determina il modo in cui le informazioni vengono presentate su un mezzo (in un segnale). Pertanto, queste informazioni vengono presentate sui media elettronici utilizzando un carattere specifico. Qui puoi anche considerare parametri di presentazione delle informazioni come stile e colore del carattere, dimensione, interlinea, ecc. La scelta dei parametri necessari come proprietà sintattiche è ovviamente determinata dal metodo di trasformazione previsto. Ad esempio, per una persona con problemi di vista, la dimensione e il colore del carattere sono importanti. Se prevedi di inserire questo testo in un computer tramite uno scanner, il formato della carta è importante;

La semantica è una proprietà che determina il significato dell'informazione come corrispondenza del segnale al mondo reale. Pertanto, la semantica del segnale “informatica” risiede nella definizione data in precedenza. La semantica può essere considerata come un accordo, noto a chi acquisisce l'informazione, sul significato di ciascun segnale (la cosiddetta regola di interpretazione). Ad esempio, è la semantica dei segnali che un automobilista alle prime armi studia, studiando le regole della strada, imparando la segnaletica stradale (in questo caso i segnali stessi sono i segnali). La semantica delle parole (segnali) viene appresa da uno studente di una lingua straniera. Possiamo dire che lo scopo dell'insegnamento dell'informatica è studiare la semantica di vari segnali: l'essenza dei concetti chiave di questa disciplina;

La pragmatica è una proprietà che determina l'influenza delle informazioni sul comportamento dell'acquirente. Pertanto, la pragmatica delle informazioni ricevute dal lettore di questo libro di testo è, come minimo, il superamento positivo dell'esame di informatica. Mi piacerebbe credere che la pragmatica di questo lavoro non si limiterà a questo, ma servirà per l'ulteriore formazione e attività professionale del lettore.

L'informazione è

Va notato che segnali che differiscono nella sintassi possono avere la stessa semantica. Ad esempio, i segnali “computer” e “computer” significano dispositivo elettronico per trasformare le informazioni. In questo caso si parla solitamente di sinonimia di segnale. D’altra parte, un segnale (cioè un’informazione con una proprietà sintattica) può avere una pragmatica diversa per i consumatori e una semantica diversa. Pertanto, un segnale stradale denominato “mattone” e con una semantica molto specifica (“divieto di accesso”) significa per un automobilista un divieto di accesso, ma non ha alcun effetto per un pedone. Allo stesso tempo, il segnale “chiave” può avere semantica diversa: chiave di violino, chiave di primavera, chiave per aprire una serratura, chiave utilizzata in informatica per codificare un segnale al fine di proteggerlo da accessi non autorizzati (in in questo caso si parla di omonimia di segnale). Ci sono segnali: contrari che hanno una semantica opposta. Ad esempio, "freddo" e "caldo", "veloce" e "lento", ecc.

L'oggetto di studio dell'informatica sono i dati: metodi per la loro creazione, archiviazione, elaborazione e trasmissione. E l'informazione stessa registrata nei dati, il suo significato significativo, interessa gli utenti dei sistemi informativi che sono specialisti in varie scienze e campi di attività: un medico è interessato alle informazioni mediche, un geologo è interessato alle informazioni geologiche, un uomo d'affari è interessato a informazioni commerciali, ecc. (In particolare, un informatico è interessato a informazioni su come lavorare con i dati).

Semiotica: scienza dell'informazione

Le informazioni non possono essere immaginate senza la loro ricezione, elaborazione, trasmissione, ecc., cioè al di fuori dell'ambito dello scambio di informazioni. Tutti gli atti di scambio di informazioni vengono effettuati attraverso simboli o segni, con l'aiuto dei quali un sistema ne influenza un altro. Pertanto, la scienza principale che studia l'informazione è la semiotica: la scienza dei segni e dei sistemi di segni nella natura e nella società (teoria dei segni). In ogni atto di scambio di informazioni si possono trovare tre “partecipanti”, tre elementi: un segno, un oggetto che designa e un destinatario (utente) del segno.

A seconda delle relazioni tra gli elementi considerati, la semiotica è divisa in tre sezioni: sintattica, semantica e pragmatica. La sintattica studia i segni e le relazioni tra loro. Allo stesso tempo, astrae dal contenuto del segno e dal suo significato pratico per il destinatario. La semantica studia il rapporto tra i segni e gli oggetti che denotano, astraendo dal destinatario dei segni e dal valore di questi ultimi: per lui. È chiaro che lo studio dei modelli di rappresentazione semantica degli oggetti nei segni è impossibile senza tenere conto e utilizzare i modelli generali di costruzione di qualsiasi sistema di segni studiato dalla sintattica. La pragmatica studia la relazione tra i segni e i loro utenti. Nell'ambito della pragmatica, vengono studiati tutti i fattori che distinguono un atto di scambio di informazioni da un altro, tutte le questioni relative ai risultati pratici dell'utilizzo delle informazioni e al suo valore per il destinatario.

In questo caso, molti aspetti dei rapporti dei segni tra loro e con gli oggetti che denotano sono inevitabilmente influenzati. Pertanto, le tre sezioni della semiotica corrispondono a tre livelli di astrazione (distrazione) dalle caratteristiche di specifici atti di scambio di informazioni. Lo studio dell'informazione in tutta la sua diversità corrisponde al livello pragmatico. Distogliendo il destinatario dell'informazione, escludendolo dalla considerazione, passiamo a studiarla a livello semantico. Con l'astrazione dal contenuto dei segni, l'analisi dell'informazione viene trasferita al livello della sintattica. Questa compenetrazione delle principali sezioni della semiotica, associate a diversi livelli di astrazione, può essere rappresentata utilizzando il diagramma “Tre sezioni della semiotica e la loro interrelazione”. La misurazione delle informazioni viene effettuata di conseguenza in tre aspetti: sintattico, semantico e pragmatico. La necessità di dimensioni di informazione così diverse, come verrà mostrato di seguito, è dettata dalla pratica di progettazione e aziende funzionamento dei sistemi informativi. Consideriamo una tipica situazione produttiva.

Alla fine del turno, il pianificatore del cantiere prepara i dati del programma di produzione. Questi dati entrano nel centro informazioni e calcolo (ICC) dell'impresa, dove vengono elaborati e sotto forma di rapporti sullo stato attuale della produzione vengono rilasciati ai manager. Sulla base dei dati ricevuti, il responsabile dell'officina decide di modificare il piano di produzione con quello successivo pianificato o di adottare altre misure organizzative. Ovviamente, per il responsabile del negozio, la quantità di informazioni contenute nel riepilogo dipende dall'entità dell'impatto economico ricevuto dal suo utilizzo nel processo decisionale, da quanto siano state utili le informazioni ricevute. Per il progettista del sito, la quantità di informazioni contenute nello stesso messaggio è determinata dall'accuratezza della sua corrispondenza con l'effettivo stato delle cose sul sito e dal grado di sorpresa dei fatti riportati. Quanto più sono inaspettati, tanto più velocemente è necessario segnalarli al management, tanto più informazioni arriveranno questo messaggio. Per i lavoratori dell'ICC, il numero di caratteri e la lunghezza del messaggio che trasporta le informazioni saranno di fondamentale importanza, poiché è questo che determina il tempo di caricamento delle apparecchiature informatiche e dei canali di comunicazione. Allo stesso tempo, praticamente non sono interessati né all'utilità delle informazioni né alla misura quantitativa del valore semantico delle informazioni.

Naturalmente, quando organizziamo un sistema di gestione della produzione e costruiamo modelli di selezione delle decisioni, utilizzeremo l'utilità delle informazioni come misura dell'informatività dei messaggi. Quando si costruisce un sistema contabilità e il reporting che fornisce indicazioni sull’andamento del processo produttivo, la misura della quantità di informazioni dovrebbe essere intesa come novità dell’informazione ricevuta. Azienda Le stesse procedure per l'elaborazione meccanica delle informazioni richiedono la misurazione del volume dei messaggi sotto forma di numero di caratteri elaborati. Questi tre approcci fondamentalmente diversi alla misurazione delle informazioni non sono contraddittori o si escludono a vicenda. Al contrario, misurando le informazioni su scale diverse, consentono una valutazione più completa ed esaustiva del contenuto informativo di ciascun messaggio e organizzano più efficacemente un sistema di gestione della produzione. Secondo la felice espressione del prof. NON. Kobrinsky, quando si tratta di un'azienda razionale di flussi di informazioni, la quantità, la novità e l'utilità delle informazioni sono interconnesse tanto quanto la quantità, la qualità e il costo dei prodotti in produzione.

Informazioni nel mondo materiale

l'informazione è uno dei concetti generali associati alla materia. L'informazione esiste in qualsiasi oggetto materiale sotto forma di una varietà dei suoi stati e viene trasferita da oggetto a oggetto nel processo della loro interazione. L'esistenza dell'informazione come proprietà oggettiva della materia deriva logicamente dalle proprietà fondamentali conosciute della materia: struttura, cambiamento continuo (movimento) e interazione degli oggetti materiali.

La struttura della materia si manifesta come lo smembramento interno dell'integrità, l'ordine naturale di connessione degli elementi all'interno del tutto. In altre parole, qualsiasi oggetto materiale, dalla particella subatomica del Meta Universo (Big Bang) nel suo insieme, è un sistema di sottosistemi interconnessi. A causa del movimento continuo, inteso in senso lato come movimento nello spazio e sviluppo nel tempo, gli oggetti materiali cambiano i loro stati. Gli stati degli oggetti cambiano anche durante le interazioni con altri oggetti. L'insieme degli stati di un sistema materiale e di tutti i suoi sottosistemi rappresenta l'informazione sul sistema.

A rigor di termini, a causa dell’incertezza, dell’infinito e delle proprietà della struttura, la quantità di informazioni oggettive in qualsiasi oggetto materiale è infinita. Questa informazione è chiamata completa. Tuttavia è possibile distinguere livelli strutturali con insiemi finiti di stati. Le informazioni che esistono a livello strutturale con un numero finito di stati sono chiamate private. Per le informazioni private, ha senso il concetto di quantità di informazioni.

Dalla presentazione di cui sopra, è logico e semplice selezionare un'unità di misura per la quantità di informazioni. Immaginiamo un sistema che possa trovarsi solo in due stati ugualmente probabili. Assegniamo ad uno il codice “1” e all'altro “0”. Questa è la quantità minima di informazioni che il sistema può contenere. È un'unità di misura delle informazioni e si chiama bit. Esistono altri metodi e unità, più difficili da definire, per misurare la quantità di informazioni.

A seconda della forma materiale del mezzo, l'informazione è di due tipi principali: analogica e discreta. L'informazione analogica cambia continuamente nel tempo e prende valori da un continuum di valori. Le informazioni discrete cambiano in alcuni momenti nel tempo e prendono valori da un certo insieme di valori. Qualsiasi oggetto o processo materiale è la fonte primaria di informazioni. Tutti i suoi possibili stati costituiscono il codice sorgente dell'informazione. Il valore istantaneo degli stati è rappresentato come un simbolo (“lettera”) di questo codice. Affinché le informazioni possano essere trasmesse da un oggetto a un altro come ricevitore, è necessario che esista una sorta di mezzo materiale intermedio che interagisca con la fonte. Tali portatori in natura, di regola, si propagano rapidamente processi di struttura ondulatoria: radiazioni cosmiche, gamma e raggi X, onde elettromagnetiche e sonore, potenziali (e forse onde non ancora scoperte) del campo gravitazionale. Quando si interagisce radiazioni elettromagnetiche con un oggetto, a seguito dell'assorbimento o della riflessione, il suo spettro cambia, ad es. le intensità di alcune lunghezze d'onda cambiano. Le armoniche delle vibrazioni sonore cambiano anche durante le interazioni con gli oggetti. Le informazioni vengono trasmesse anche attraverso l'interazione meccanica, ma l'interazione meccanica, di regola, porta a grandi cambiamenti nella struttura degli oggetti (fino alla loro distruzione) e l'informazione è notevolmente distorta. La distorsione dell'informazione durante la sua trasmissione si chiama disinformazione.

Il trasferimento delle informazioni di origine alla struttura del mezzo è chiamato codifica. In questo caso, il codice sorgente viene convertito nel codice dell'operatore. Il mezzo con il codice sorgente trasferito sotto forma di codice portante è chiamato segnale. Il ricevitore del segnale ha il proprio insieme di possibili stati, chiamato codice del ricevitore. Un segnale, interagendo con un oggetto ricevente, cambia il suo stato. Il processo di conversione di un codice di segnale in un codice di ricevitore è chiamato decodifica. Il trasferimento di informazioni da una sorgente a un ricevitore può essere considerato un'interazione di informazioni. L'interazione delle informazioni è fondamentalmente diversa dalle altre interazioni. In tutte le altre interazioni di oggetti materiali, avviene uno scambio di materia e (o) energia. In questo caso, uno degli oggetti perde materia o energia e l'altro la guadagna. Questa proprietà delle interazioni è chiamata simmetria. Durante l'interazione delle informazioni, il ricevente riceve le informazioni, ma la fonte non le perde. L'interazione delle informazioni è asimmetrica. L'informazione oggettiva in sé non è materiale, è una proprietà della materia, come la struttura, il movimento ed esiste sui media materiali sotto forma di codici propri.

Informazioni sulla fauna selvatica

La fauna selvatica è complessa e diversificata. Le fonti e i destinatari delle informazioni in esso contenute sono gli organismi viventi e le loro cellule. Un organismo ha una serie di proprietà che lo distinguono dagli oggetti materiali inanimati.

Di base:

Scambio continuo di materia, energia e informazioni con l'ambiente;

Irritabilità, capacità del corpo di percepire ed elaborare informazioni sui cambiamenti nell'ambiente e nell'ambiente interno del corpo;

Eccitabilità, capacità di rispondere agli stimoli;

Auto-organizzazione, manifestata come cambiamenti nel corpo per adattarsi alle condizioni ambientali.

Un organismo, considerato come sistema, ha una struttura gerarchica. Questa struttura relativa all'organismo stesso è divisa in livelli interni: livello molecolare, cellulare, organo e, infine, l'organismo stesso. L'organismo interagisce però anche al di sopra dei sistemi viventi organici, i cui livelli sono la popolazione, l'ecosistema e tutta la natura vivente nel suo insieme (biosfera). Tra tutti questi livelli circolano flussi non solo di materia ed energia, ma anche di informazioni. Le interazioni informative nella natura vivente avvengono allo stesso modo della natura inanimata. Allo stesso tempo, la natura vivente nel processo di evoluzione ha creato un'ampia varietà di fonti, portatori e destinatari di informazioni.

La reazione alle influenze del mondo esterno si manifesta in tutti gli organismi, poiché è causata dall'irritabilità. Negli organismi superiori, l'adattamento all'ambiente esterno è un'attività complessa, che è efficace solo con informazioni sufficientemente complete e tempestive sull'ambiente. I ricevitori delle informazioni provenienti dall'ambiente esterno sono i loro organi di senso, che comprendono la vista, l'udito, l'olfatto, il gusto, il tatto e l'apparato vestibolare. Nella struttura interna degli organismi ci sono numerosi recettori interni associati al sistema nervoso. Il sistema nervoso è costituito da neuroni, i cui processi (assoni e dendriti) sono analoghi ai canali di trasmissione delle informazioni. Gli organi principali che immagazzinano ed elaborano le informazioni nei vertebrati sono il midollo spinale e il cervello. A seconda delle caratteristiche dei sensi, le informazioni percepite dal corpo possono essere classificate in visive, uditive, gustative, olfattive e tattili.

Quando il segnale raggiunge la retina dell'occhio umano, eccita in modo particolare le cellule che lo costituiscono. Gli impulsi nervosi dalle cellule vengono trasmessi attraverso gli assoni al cervello. Il cervello ricorda questa sensazione sotto forma di una certa combinazione di stati dei suoi neuroni costituenti. (L'esempio continua nella sezione “l'informazione nella società umana”). Accumulando informazioni, il cervello crea sulla sua struttura un modello informativo connesso del mondo circostante. Nella natura vivente, una caratteristica importante per un organismo che riceve informazioni è la sua disponibilità. La quantità di informazioni che il sistema nervoso umano è in grado di inviare al cervello durante la lettura di testi è di circa 1 bit ogni 1/16 di s.

L'informazione è

Lo studio degli organismi è complicato dalla loro complessità. L'astrazione della struttura come insieme matematico, accettabile per gli oggetti inanimati, è difficilmente accettabile per un organismo vivente, perché per creare un modello astratto più o meno adeguato di un organismo è necessario tenere conto di tutti gli elementi gerarchici livelli della sua struttura. Pertanto, è difficile introdurre una misura della quantità di informazioni. È molto difficile determinare le connessioni tra i componenti della struttura. Se si sa quale organo è la fonte dell'informazione, qual è il segnale e qual è il ricevitore?

Prima dell’avvento dei computer, la biologia, che si occupa dello studio degli organismi viventi, utilizzava solo metodi qualitativi, cioè modelli descrittivi. In un modello qualitativo è quasi impossibile tenere conto delle connessioni informative tra i componenti della struttura. La tecnologia informatica elettronica ha permesso di applicare nuovi metodi nella ricerca biologica, in particolare il metodo di modellazione della macchina, che prevede una descrizione matematica di fenomeni e processi noti che si verificano nel corpo, aggiungendo ad essi ipotesi su alcuni processi sconosciuti e calcolando il possibile comportamento modelli dell'organismo. Le opzioni risultanti vengono confrontate con il comportamento reale dell'organismo, che consente di determinare la verità o la falsità delle ipotesi avanzate. Tali modelli possono anche tenere conto dell’interazione delle informazioni. I processi informativi che assicurano l’esistenza della vita stessa sono estremamente complessi. E sebbene sia intuitivamente chiaro che questa proprietà è direttamente correlata alla formazione, conservazione e trasmissione di informazioni complete sulla struttura dell'organismo, per qualche tempo una descrizione astratta di questo fenomeno è sembrata impossibile. Tuttavia, i processi informativi che garantiscono l'esistenza di questa proprietà sono stati parzialmente rivelati attraverso la decifrazione del codice genetico e la lettura dei genomi di vari organismi.

L'informazione nella società umana

Lo sviluppo della materia nel processo di movimento è diretto a complicare la struttura degli oggetti materiali. Una delle strutture più complesse è il cervello umano. Finora, questa è l'unica struttura a noi nota che possiede una proprietà che l'uomo stesso chiama coscienza. Parlando di informazioni, noi, come esseri pensanti, intendiamo a priori che l'informazione, oltre alla sua presenza sotto forma di segnali che riceviamo, ha anche un significato. Formando nella sua mente un modello del mondo circostante come un insieme interconnesso di modelli dei suoi oggetti e processi, una persona utilizza concetti semantici piuttosto che informazioni. Il significato è l'essenza di ogni fenomeno, che non coincide con se stesso e lo collega al contesto più ampio della realtà. La parola stessa indica direttamente che il contenuto semantico dell'informazione può essere formato solo pensando ai destinatari dell'informazione. Nella società umana, l'importanza decisiva non è l'informazione in sé, ma il suo contenuto semantico.

Esempio (continua). Avendo sperimentato una tale sensazione, una persona assegna all'oggetto il concetto di "pomodoro" e il suo stato al concetto di "colore rosso". Inoltre, la sua coscienza fissa la connessione: “pomodoro” - “rosso”. Questo è il significato del segnale ricevuto. (L'esempio continua di seguito in questa sezione). La capacità del cervello di creare concetti significativi e connessioni tra loro è la base della coscienza. La coscienza può essere considerata come un modello semantico autosviluppante del mondo circostante. Il significato non è informazione. Le informazioni esistono solo su un supporto tangibile. La coscienza umana è considerata immateriale. Il significato esiste nella mente umana sotto forma di parole, immagini e sensazioni. Una persona può pronunciare le parole non solo ad alta voce, ma anche "a se stessa". Può anche creare (o ricordare) immagini e sensazioni “nella sua mente”. Tuttavia, può recuperare informazioni corrispondenti a questo significato parlando o scrivendo parole.

L'informazione è

Esempio (continua). Se le parole "pomodoro" e "rosso" sono il significato dei concetti, allora dov'è l'informazione? le informazioni sono contenute nel cervello sotto forma di determinati stati dei suoi neuroni. È anche contenuto nel testo stampato composto da queste parole e quando si codificano le lettere con un codice binario a tre bit, la sua quantità è di 120 bit. Se dici le parole ad alta voce, ci saranno molte più informazioni, ma il significato rimarrà lo stesso. Quantità più grande l'informazione è trasportata da un'immagine visiva. Ciò si riflette anche nel folklore: "è meglio vedere una volta che ascoltare cento volte". L'informazione così ripristinata è chiamata informazione semantica, poiché codifica il significato di alcune informazioni primarie (semantica). Avendo ascoltato (o visto) una frase pronunciata (o scritta) in una lingua che una persona non conosce, riceve informazioni, ma non può determinarne il significato. Pertanto, per trasmettere il contenuto semantico delle informazioni, sono necessari alcuni accordi tra sorgente e destinatario sul contenuto semantico dei segnali, ad es. parole Come accordi può essere raggiunto attraverso la comunicazione. La comunicazione è una delle condizioni più importanti per l’esistenza della società umana.

Nel mondo moderno, l'informazione è una delle risorse più importanti e, allo stesso tempo, una delle forze trainanti nello sviluppo della società umana. I processi di informazione che avvengono nel mondo materiale, nella natura vivente e nella società umana sono studiati (o almeno presi in considerazione) da tutte le discipline scientifiche, dalla filosofia al marketing. La crescente complessità dei problemi della ricerca scientifica ha portato alla necessità di attrarre grandi team di scienziati di diverse specialità per risolverli. Pertanto, quasi tutte le teorie discusse di seguito sono interdisciplinari. Storicamente, due rami complessi della scienza – la cibernetica e l’informatica – sono impegnati nello studio dell’informazione stessa.

La cibernetica moderna è multidisciplinare industria scienza che studia sistemi altamente complessi, come:

Società umana (cibernetica sociale);

Economia (cibernetica economica);

Organismo vivente (cibernetica biologica);

Il cervello umano e la sua funzione è la coscienza (intelligenza artificiale).

L'informatica, nata come scienza a metà del secolo scorso, si è separata dalla cibernetica ed è impegnata nella ricerca nel campo dei metodi per ottenere, archiviare, trasmettere ed elaborare informazioni semantiche. Entrambi industria utilizzare diverse teorie scientifiche sottostanti. Questi includono la teoria dell'informazione e le sue sezioni: teoria dei codici, teoria degli algoritmi e teoria degli automi. La ricerca sul contenuto semantico dell'informazione si basa su un insieme di teorie scientifiche sotto il nome generale di semiotica. La teoria dell'informazione è una teoria complessa, principalmente matematica, che include la descrizione e la valutazione dei metodi per recuperare, trasmettere, archiviare e classificare le informazioni. Considera i media dell'informazione come elementi di un insieme astratto (matematico) e le interazioni tra i media come un modo per organizzare gli elementi in questo insieme. Questo approccio consente di descrivere formalmente il codice informativo, ovvero di definire un codice astratto e studiarlo utilizzando metodi matematici. Per questi studi utilizza metodi di teoria della probabilità, statistica matematica, algebra lineare, teoria dei giochi e altre teorie matematiche.

Le basi di questa teoria furono gettate dallo scienziato americano E. Hartley nel 1928, che determinò la misura della quantità di informazioni per determinati problemi di comunicazione. Successivamente, la teoria fu sviluppata in modo significativo dallo scienziato americano K. Shannon, dagli scienziati russi A.N. Kolmogorov, V.M. Glushkov e altri. La moderna teoria dell'informazione comprende sezioni come la teoria dei codici, la teoria degli algoritmi, la teoria degli automi digitali (vedi sotto) e alcune altre. Esistono anche teorie alternative dell'informazione, ad esempio la “Teoria dell'informazione qualitativa”, proposta dal polacco scienziato M. Mazur Ogni persona ha familiarità con il concetto di algoritmo, senza nemmeno saperlo. Ecco un esempio di algoritmo informale: “Taglia i pomodori a cerchi o a fette. Metteteci dentro la cipolla tritata, versate l'olio vegetale, quindi cospargete con il peperoncino tritato finemente e mescolate. Prima di mangiare, cospargere di sale, mettere in un'insalatiera e guarnire con il prezzemolo. (Insalata di pomodoro).

Le prime regole per risolvere i problemi aritmetici nella storia dell'umanità furono sviluppate da uno dei famosi scienziati dell'antichità, Al-Khorezmi, nel IX secolo d.C. In suo onore, le regole formalizzate per raggiungere qualsiasi obiettivo sono chiamate algoritmi. L'oggetto della teoria degli algoritmi è trovare metodi per costruire e valutare algoritmi computazionali e di controllo efficaci (inclusi universali) per l'elaborazione delle informazioni. Per comprovare tali metodi, la teoria degli algoritmi utilizza l'apparato matematico della teoria dell'informazione. Il moderno concetto scientifico di algoritmi come metodi di elaborazione delle informazioni è stato introdotto nei lavori di E. Post e A. Turing negli anni '20 del XX secolo (Turing). Macchina). Gli scienziati russi A. Markov (Markov Normal Algorithm) e A. Kolmogorov hanno dato un grande contributo allo sviluppo della teoria degli algoritmi. La teoria degli automi è una branca della cibernetica teorica in cui vengono studiati modelli matematici di quelli reali o fondamentalmente esistenti. possibili dispositivi elaborazione di informazioni discrete in momenti discreti nel tempo.

Il concetto di automa è nato nella teoria degli algoritmi. Se esistono algoritmi universali per risolvere problemi computazionali, allora devono esistere anche dispositivi (anche se astratti) per implementare tali algoritmi. In realtà, una macchina di Turing astratta, considerata nella teoria degli algoritmi, è allo stesso tempo un automa definito in modo informale. Background teorico la costruzione di tali dispositivi è oggetto della teoria degli automi. La teoria degli automi utilizza l'apparato delle teorie matematiche: algebra, logica matematica, analisi combinatoria, teoria dei grafi, teoria della probabilità, ecc. La teoria degli automi, insieme alla teoria. di algoritmi, è la principale base teorica per la creazione di computer elettronici e sistemi di controllo automatizzati. La semiotica è un complesso di teorie scientifiche che studiano le proprietà dei sistemi di segni. I risultati più significativi sono stati raggiunti nel ramo della semiotica: la semantica. L'oggetto della ricerca semantica è il contenuto semantico delle informazioni.

Un sistema di segni è considerato un sistema di oggetti concreti o astratti (segni, parole), a ciascuno dei quali è associato in un certo modo un determinato significato. In teoria, è stato dimostrato che possono esserci due confronti di questo tipo. Il primo tipo di corrispondenza determina direttamente l'oggetto materiale che questa parola denota ed è chiamato denotazione (o, in alcune opere, designato). Il secondo tipo di corrispondenza determina il significato di un segno (parola) e si chiama concetto. Allo stesso tempo, vengono studiate proprietà di confronti come "significato", "verità", "definibilità", "seguente", "interpretazione", ecc. Per la ricerca viene utilizzato l'apparato della logica matematica e della linguistica matematica della semantica, delineata da G. V. Leibniz e F de Saussure nel XIX secolo, formulata e sviluppata da C. Pierce (1839-1914), C. Morris (n. 1901), R. Carnap (1891-1970), ecc. Il risultato principale della teoria è la creazione di un apparato di analisi semantica che consente di rappresentare il significato di un testo in un linguaggio naturale sotto forma di una registrazione in un linguaggio semantico (semantico) formalizzato. L'analisi semantica è la base per la creazione di dispositivi (programmi) per la traduzione automatica da una lingua naturale all'altra.

Le informazioni vengono archiviate trasferendole su alcuni supporti fisici. Le informazioni semantiche registrate su un supporto di memorizzazione tangibile sono chiamate documento. L'umanità ha imparato a memorizzare le informazioni molto tempo fa. Le forme più antiche di memorizzazione delle informazioni utilizzavano la disposizione degli oggetti: conchiglie e pietre sulla sabbia, nodi su una corda. Uno sviluppo significativo di questi metodi è stato scrivere: immagine grafica simboli su pietra, argilla, papiro, carta. Di grande importanza nello sviluppo di questa direzione è stata invenzione stampa di libri. Nel corso della sua storia, l'umanità ha accumulato un'enorme quantità di informazioni in biblioteche, archivi, periodici e altri documenti scritti.

Attualmente ha acquisito particolare importanza la memorizzazione di informazioni sotto forma di sequenze di caratteri binari. Per implementare questi metodi, vengono utilizzati una varietà di dispositivi di archiviazione. Sono il collegamento centrale dei sistemi di archiviazione delle informazioni. Oltre a questi, tali sistemi utilizzano strumenti di recupero delle informazioni ( sistema di ricerca), mezzi per ottenere informazioni (informazioni e sistemi di riferimento) e mezzi per visualizzare informazioni (dispositivo di output). Formati in base allo scopo delle informazioni, tali sistemi informativi costituiscono banche dati, banche dati e basi di conoscenza.

Il trasferimento dell'informazione semantica è il processo del suo trasferimento spaziale dalla sorgente al destinatario (destinatario). L'uomo ha imparato a trasmettere e ricevere informazioni ancor prima che a memorizzarle. La parola è un metodo di trasmissione che i nostri lontani antenati usavano nel contatto diretto (conversazione) - lo usiamo ancora adesso. Per trasmettere informazioni su lunghe distanze, è necessario utilizzare processi informativi molto più complessi. Per eseguire tale processo, le informazioni devono essere formattate (presentate) in qualche modo. Per presentare le informazioni vengono utilizzati vari sistemi di segni: insiemi di simboli semantici predeterminati: oggetti, immagini, parole scritte o stampate del linguaggio naturale. Le informazioni semantiche su qualsiasi oggetto, fenomeno o processo presentato con il loro aiuto sono chiamate messaggio.

Ovviamente, per trasmettere un messaggio a distanza, le informazioni devono essere trasferite su qualche tipo di supporto mobile. I trasportatori possono spostarsi nello spazio utilizzando veicoli, come accade con le lettere inviate per posta. Questo metodo garantisce la completa affidabilità della trasmissione delle informazioni, poiché il destinatario riceve il messaggio originale, ma richiede molto tempo per la trasmissione. Dalla metà del 19 ° secolo, i metodi di trasmissione delle informazioni si sono diffusi utilizzando un vettore di informazioni che si propaga naturalmente: vibrazioni elettromagnetiche (vibrazioni elettriche, onde radio, luce). L’implementazione di questi metodi richiede:

Trasferimento preliminare delle informazioni contenute in un messaggio a un mezzo - codifica;

Garantire la trasmissione del segnale così ricevuto al destinatario tramite uno speciale canale di comunicazione;

Conversione inversa del codice del segnale in un codice del messaggio: decodifica.

L'informazione è

L'uso dei mezzi elettromagnetici rende la consegna di un messaggio al destinatario quasi istantanea, ma richiede misure aggiuntive per garantire la qualità (affidabilità e accuratezza) delle informazioni trasmesse, poiché i canali di comunicazione reali sono soggetti a interferenze naturali e artificiali. I dispositivi che implementano il processo di trasferimento dei dati formano sistemi di comunicazione. A seconda del metodo di presentazione delle informazioni, i sistemi di comunicazione possono essere suddivisi in segni (, telefax), suono (), video e sistemi combinati (televisione). Il sistema di comunicazione più sviluppato ai nostri tempi è Internet.

Elaborazione dati

Poiché l’informazione non è materiale, la sua elaborazione comporta varie trasformazioni. I processi di elaborazione comprendono qualsiasi trasferimento di informazioni da un supporto a un altro supporto. Le informazioni destinate al trattamento sono chiamate dati. Il tipo principale di elaborazione delle informazioni primarie ricevute da vari dispositivi è la trasformazione in una forma che ne garantisca la percezione da parte dei sensi umani. Pertanto, le fotografie dello spazio ottenute nei raggi X vengono convertite in normali fotografie a colori utilizzando speciali convertitori di spettro e materiali fotografici. I dispositivi per la visione notturna convertono l'immagine ottenuta dai raggi infrarossi (termici) in un'immagine nel campo del visibile. Per alcune attività di comunicazione e controllo è necessaria la conversione delle informazioni analogiche. A questo scopo vengono utilizzati convertitori di segnale analogico-digitale e digitale-analogico.

Il tipo più importante di elaborazione delle informazioni semantiche è determinare il significato (contenuto) contenuto in un determinato messaggio. A differenza delle informazioni semantiche primarie, non ne ha statistico caratteristiche, cioè una misura quantitativa: o c'è un significato o non c'è. E a quanto ammonta, se esiste, è impossibile stabilirlo. Il significato contenuto nel messaggio è descritto in un linguaggio artificiale che riflette le connessioni semantiche tra le parole testo di origine. Un dizionario di tale lingua, chiamato thesaurus, si trova nel destinatario del messaggio. Il significato delle parole e delle frasi in un messaggio viene determinato assegnandole a determinati gruppi di parole o frasi, il cui significato è già stato stabilito. Il thesaurus, quindi, consente di stabilire il significato del messaggio e, allo stesso tempo, si riempie di nuovi concetti semantici. Il tipo descritto di elaborazione delle informazioni viene utilizzato nei sistemi di recupero delle informazioni e nei sistemi di traduzione automatica.

Uno dei tipi più diffusi di elaborazione delle informazioni è la soluzione di problemi computazionali e di controllo automatico tramite computer. L’elaborazione delle informazioni viene sempre effettuata per qualche scopo. Per raggiungerlo, è necessario conoscere l'ordine delle azioni sulle informazioni che portano a un determinato obiettivo. Questa procedura è chiamata algoritmo. Oltre all'algoritmo stesso, è necessario anche un dispositivo che implementi questo algoritmo. Nelle teorie scientifiche, un tale dispositivo è chiamato automa. Va notato che la caratteristica più importante dell'informazione è il fatto che, a causa dell'asimmetria dell'interazione delle informazioni, durante l'elaborazione delle informazioni compaiono nuove informazioni, ma le informazioni originali non vengono perse.

Informazioni analogiche e digitali

Il suono è costituito dalle vibrazioni delle onde in qualsiasi mezzo, ad esempio nell'aria. Quando una persona parla, le vibrazioni dei legamenti della gola vengono convertite in vibrazioni ondulatorie dell'aria. Se consideriamo il suono non come un'onda, ma come vibrazioni in un punto, queste vibrazioni possono essere rappresentate come variazioni della pressione dell'aria nel tempo. Utilizzando un microfono, le variazioni di pressione possono essere rilevate e convertite in tensione elettrica. La pressione dell'aria viene convertita in fluttuazioni di tensione elettrica.

Tale trasformazione può avvenire secondo varie leggi, molto spesso la trasformazione avviene secondo una legge lineare. Ad esempio, in questo modo:

U(t)=K(P(t)-P_0),

dove U(t) è la tensione elettrica, P(t) è la pressione atmosferica, P_0 è la pressione atmosferica media e K è il fattore di conversione.

Sia la tensione elettrica che la pressione dell'aria sono funzioni continue nel tempo. Le funzioni U(t) e P(t) forniscono informazioni sulle vibrazioni dei legamenti della gola. Queste funzioni sono continue e tali informazioni sono chiamate analogiche. La musica è un caso speciale di suono e può anche essere rappresentata come una sorta di funzione del tempo. Sarà una rappresentazione analogica della musica. Ma la musica viene scritta anche sotto forma di note. Ogni nota ha una durata che è un multiplo di una durata predeterminata e un'altezza (do, re, mi, fa, salt, ecc.). Se questi dati vengono convertiti in numeri, otteniamo una rappresentazione digitale della musica.

Anche il linguaggio umano è un caso speciale di suono. Può anche essere rappresentato in forma analogica. Ma proprio come la musica può essere scomposta in note, il discorso può essere scomposto in lettere. Se a ciascuna lettera viene assegnato il proprio insieme di numeri, otterremo una rappresentazione digitale del parlato. La differenza tra l'informazione analogica e quella digitale è che l'informazione analogica è continua, mentre l'informazione digitale è discreta. La trasformazione dell'informazione da un tipo all'altro , a seconda del tipo di trasformazione, viene chiamata diversamente: semplicemente "conversione", come conversione da digitale ad analogico, o conversione da analogico a digitale; le trasformazioni complesse sono chiamate "codifica", ad esempio codifica delta, codifica entropica; La conversione tra caratteristiche come ampiezza, frequenza o fase è chiamata "modulazione", ad esempio modulazione di ampiezza-frequenza, modulazione di larghezza di impulso.

L'informazione è

In genere, le conversioni analogiche sono abbastanza semplici e possono essere facilmente gestite da vari dispositivi inventati dall'uomo. Un registratore converte la magnetizzazione sulla pellicola in suono, un registratore vocale converte il suono in magnetizzazione sulla pellicola, una videocamera converte la luce in magnetizzazione sulla pellicola, un oscilloscopio converte la tensione elettrica o la corrente in un'immagine, ecc. Convertire le informazioni analogiche in digitali è molto più difficile. La macchina non riesce ad effettuare alcune trasformazioni o ci riesce con grande difficoltà. Ad esempio, la conversione del parlato in testo o la conversione della registrazione di un concerto in spartiti e persino una rappresentazione intrinsecamente digitale: è molto difficile per una macchina convertire il testo su carta nello stesso testo nella memoria del computer.

L'informazione è

Perché allora utilizzare la rappresentazione digitale delle informazioni se sono così complesse? Il vantaggio principale delle informazioni digitali rispetto a quelle analogiche è l’immunità al rumore. Cioè, nel processo di copia delle informazioni, le informazioni digitali vengono copiate così come sono, possono essere copiate quasi un numero infinito di volte, mentre le informazioni analogiche diventano rumorose durante il processo di copia e la loro qualità si deteriora. In genere, le informazioni analogiche possono essere copiate non più di tre volte. Se si dispone di un registratore audio a due cassette, è possibile eseguire il seguente esperimento: provare a riscrivere la stessa canzone più volte da cassetta a cassetta dopo solo alcune riregistrazioni noterai quanto la qualità della registrazione è peggiorata. Le informazioni sulla cassetta sono memorizzate in forma analogica. Puoi riscrivere la musica in formato mp3 tutte le volte che vuoi e la qualità della musica non si deteriorerà. Le informazioni in un file mp3 vengono archiviate digitalmente.

Quantità di informazioni

Una persona o qualche altro destinatario di informazioni, dopo aver ricevuto un'informazione, risolve alcune incertezze. Prendiamo come esempio lo stesso albero. Quando abbiamo visto l’albero, abbiamo risolto una serie di incertezze. Abbiamo imparato l'altezza dell'albero, il tipo di albero, la densità del fogliame, il colore delle foglie e, se era un albero da frutto, poi abbiamo visto i frutti su di esso, quanto erano maturi, ecc. Prima di guardare l'albero non sapevamo tutto questo, dopo aver guardato l'albero abbiamo risolto l'incertezza: abbiamo ricevuto informazioni.

Se andiamo in un prato e lo osserviamo, otterremo un diverso tipo di informazione, quanto è grande il prato, quanto è alta l'erba e di che colore è l'erba. Se un biologo si reca in questo stesso prato, allora, tra le altre cose, potrà scoprire: quali varietà di erba crescono nel prato, che tipo di prato è, vedrà quali fiori sono sbocciati, quali sono in procinto di fiorire, se il prato è adatto al pascolo delle mucche, ecc. Cioè riceverà più informazioni di noi, poiché aveva più domande prima di guardare il prato, il biologo risolverà più incertezze.

L'informazione è

Più l'incertezza veniva risolta nel processo di ottenimento delle informazioni, più informazioni ricevevamo. Ma questa è una misura soggettiva della quantità di informazioni e vorremmo avere una misura oggettiva. Esiste una formula per calcolare la quantità di informazioni. Abbiamo una certa incertezza, e abbiamo N numero di casi di risoluzione dell'incertezza, e ogni caso ha una certa probabilità di risoluzione, quindi la quantità di informazioni ricevute può essere calcolata utilizzando la seguente formula che Shannon ci ha suggerito:

I = -(p_1 log_(2)p_1 + p_2 log_(2)p_2 +... +p_N log_(2)p_N), dove

I - quantità di informazioni;

N - numero di risultati;

p_1, p_2,..., p_N sono le probabilità del risultato.

L'informazione è

La quantità di informazioni viene misurata in bit, un'abbreviazione della parola inglese BInary digiT, che significa cifra binaria.

Per eventi ugualmente probabili la formula può essere semplificata:

I = log_(2)N, dove

I - quantità di informazioni;

N è il numero di risultati.

Prendiamo, ad esempio, una moneta e gettiamola sul tavolo. Atterrerà testa o croce. Abbiamo 2 eventi ugualmente probabili. Dopo aver lanciato la moneta, abbiamo ricevuto log_(2)2=1 bit di informazione.

Proviamo a scoprire quante informazioni otteniamo dopo aver lanciato i dadi. Il cubo ha sei facce: sei eventi ugualmente probabili. Otteniamo: log_(2)6 circa 2.6. Dopo aver lanciato il dado sul tavolo, abbiamo ricevuto circa 2,6 bit di informazione.

Le probabilità di vedere un dinosauro marziano quando usciamo di casa sono una su dieci miliardi. Quante informazioni otterremo sul dinosauro marziano una volta usciti di casa?

Sinistra(((1 su (10^(10))) log_2(1 su (10^(10))) + sinistra(( 1 - (1 su (10^(10)))) destra) log_2 sinistra(( 1 - (1 su (10^(10))) ight)) ight) circa 3,4 cdot 10^(-9) bit.

Diciamo che abbiamo lanciato 8 monete. Abbiamo 2 ^ 8 opzioni di rilascio delle monete. Ciò significa che dopo aver lanciato le monete otterremo log_2(2^8)=8 bit di informazione.

Quando facciamo una domanda e abbiamo la stessa probabilità di ricevere una risposta “sì” o “no”, dopo aver risposto alla domanda riceviamo un po’ di informazione.

È sorprendente che se applichiamo la formula di Shannon all'informazione analogica, otteniamo una quantità infinita di informazioni. Ad esempio, la tensione in un punto di un circuito elettrico può assumere un valore altrettanto probabile compreso tra zero e un volt. Il numero di risultati che abbiamo è uguale all'infinito e, sostituendo questo valore nella formula per eventi ugualmente probabili, otteniamo l'infinito, una quantità infinita di informazioni.

Ora ti mostrerò come codificare “guerra e pace” utilizzando un solo segno su qualsiasi asta di metallo. Codifichiamo tutte le lettere e i caratteri trovati in " guerra e pace”, usando numeri a due cifre, dovrebbero bastarci. Ad esempio, daremo alla lettera “A” il codice “00”, alla lettera “B” il codice “01” e così via, codificheremo segni di punteggiatura, lettere latine e numeri. Ricodifichiamo" guerra and the world" utilizzando questo codice e ottieni un numero lungo, ad esempio 70123856383901874..., aggiungi una virgola e uno zero davanti a questo numero (0.70123856383901874...). Il risultato è un numero da zero a uno. Mettiamo rischio su un'asta di metallo in modo che il rapporto tra il lato sinistro dell'asta e la lunghezza di questa asta sia uguale esattamente al nostro numero. Quindi, se all'improvviso vogliamo leggere “guerra e pace”, misureremo semplicemente il lato sinistro dell'asta rischi e la lunghezza dell'intera asta, dividere un numero per un altro, ottenere un numero e ricodificarlo in lettere (“00” in “A”, “01” in “B”, ecc.).

L'informazione è

In realtà non potremo farlo, poiché non potremo determinare le lunghezze con precisione infinita. Alcuni problemi di ingegneria ci impediscono di aumentare la precisione delle misurazioni e la fisica quantistica ci mostra che dopo un certo limite le leggi quantistiche interferiranno già con noi. Intuitivamente comprendiamo che minore è la precisione della misurazione, meno informazioni riceviamo, mentre maggiore è la precisione della misurazione, più informazioni riceviamo. La formula di Shannon non è adatta per misurare la quantità di informazioni analogiche, ma esistono altri metodi per questo, discussi in Teoria dell'informazione. Nella tecnologia informatica, un bit corrisponde allo stato fisico del supporto informazioni: magnetizzato - non magnetizzato, c'è un buco - nessun buco, carico - non carico, riflette la luce - non riflette la luce, alto potenziale elettrico - basso potenziale elettrico. In questo caso, uno stato è solitamente indicato con il numero 0 e l'altro con il numero 1. Qualsiasi informazione può essere codificata con una sequenza di bit: testo, immagine, suono, ecc.

Insieme al bit viene spesso utilizzato un valore chiamato byte; di solito è uguale a 8 bit. E se un bit ti consente di scegliere un'opzione ugualmente probabile tra due possibili, allora un byte è 1 su 256 (2 ^ 8). Per misurare la quantità di informazioni, è anche comune utilizzare unità più grandi:

1 KB (un kilobyte) 210 byte = 1024 byte

1 MB (un megabyte) 210 KB = 1024 KB

1 GB (un gigabyte) 210 MB = 1024 MB

In realtà, i prefissi SI kilo-, mega-, giga- dovrebbero essere usati rispettivamente per i fattori 10^3, 10^6 e 10^9, ma storicamente c'è stata la pratica di utilizzare fattori con potenze di due.

Un bit di Shannon e un bit utilizzato nella tecnologia informatica sono gli stessi se le probabilità che uno zero o un uno appaiano in un bit del computer sono uguali. Se le probabilità non sono uguali, la quantità di informazioni secondo Shannon diminuisce, lo abbiamo visto nell'esempio del dinosauro marziano. La quantità di informazioni del computer fornisce una stima superiore della quantità di informazioni. La memoria volatile, dopo averla alimentata, viene solitamente inizializzata con un certo valore, ad esempio tutti uno o tutti zeri. È chiaro che dopo aver acceso la memoria, non ci sono informazioni, poiché i valori nelle celle di memoria sono rigorosamente definiti, non c'è incertezza. La memoria può immagazzinare una certa quantità di informazioni, ma dopo che viene alimentata, non contiene più informazioni.

La disinformazione è un'informazione deliberatamente falsa fornita a un nemico o a un partner commerciale per una condotta più efficace delle operazioni militari, la cooperazione, il controllo della fuga di informazioni e la direzione della sua fuga, l'identificazione di potenziali clienti del mercato nero. Anche la disinformazione è un processo di manipolazione dell'informazione stessa, come ad esempio: ingannare qualcuno fornendo informazioni incomplete o complete ma non più necessarie, distorcere il contesto, distorcere parte dell'informazione.

L'obiettivo di tale influenza è sempre lo stesso: l'avversario deve agire secondo le esigenze del manipolatore. L'azione del bersaglio contro cui è diretta la disinformazione può consistere nel prendere una decisione di cui il manipolatore ha bisogno o nel rifiutarsi di prendere una decisione che è sfavorevole per il manipolatore. Ma in ogni caso, l'obiettivo finale è l'azione che verrà intrapresa dall'avversario.

La disinformazione, quindi, lo è Prodotto attività umana, un tentativo di creare una falsa impressione e, di conseguenza, spingere alle azioni e/o all'inazione desiderate.

L'informazione è

Tipi di disinformazione:

Ingannare una persona specifica o un gruppo di persone (inclusa un'intera nazione);

Manipolazione (le azioni di una persona o di un gruppo di persone);

Creare l’opinione pubblica riguardo a un problema o a un oggetto.

L'informazione è

La falsa dichiarazione non è altro che un vero e proprio inganno, la fornitura di informazioni false. La manipolazione è un metodo di influenza volto direttamente a cambiare la direzione dell’attività delle persone. Si distinguono i seguenti livelli di manipolazione:

Rafforzare i valori (idee, atteggiamenti) che esistono nella mente delle persone e sono vantaggiosi per il manipolatore;

Parziale cambiamento di opinione su un particolare evento o circostanza;

Un cambiamento radicale negli atteggiamenti di vita.

Creare l'opinione pubblica è la formazione nella società di un certo atteggiamento nei confronti di un problema scelto.

Fonti e collegamenti

ru.wikipedia.org - enciclopedia libera Wikipedia

youtube.com - Hosting di video YouTube

images.yandex.ua - Immagini Yandex

google.com.ua - Immagini di Google

ru.wikibooks.org - Wikibooks

inf1.info - Pianeta Informatica

old.russ.ru - Rivista russa

shkolo.ru - Directory delle informazioni

5byte.ru - Sito web di informatica

ssti.ru - Tecnologie dell'informazione

klgtu.ru - Informatica

informatika.sch880.ru - sito web dell'insegnante di informatica O.V. Podvintseva

Enciclopedia degli studi culturali

Il concetto base della cibernetica, allo stesso modo, economico I. il concetto base della cibernetica economica. Esistono molte definizioni di questo termine, sono complesse e contraddittorie. Il motivo, ovviamente, è che I. si occupa del fenomeno... ... Dizionario economico e matematico


Utilizziamo i cookie per la migliore presentazione del nostro sito. Continuando ad utilizzare questo sito ne sei d'accordo. OK

Le informazioni documentate sono uno dei moduli
presentazione di informazioni gratuite. Definizione giuridica
l'informazione documentata è sancita dall'art. 2 Federale
Legge “Sull'informazione, sulle tecnologie dell'informazione e sulla protezione
informazione." In conformità con l'articolo specificato sub

informazione documentata significa registrata
su un supporto tangibile documentando le informazioni
con dettagli che consentano l'identificazione di tali informazioni o
nei casi stabiliti dalla legislazione della Federazione Russa, il suo materiale
vettore. Viene fornita una definizione più dettagliata di documento
nell'art. 1 della legge federale “Sul deposito obbligatorio

documenti”, secondo il quale un documento è un supporto materiale su cui sono registrate informazioni sotto forma di testo, registrazione sonora (fonogramma), immagine o combinazione di esse, destinato alla trasmissione nel tempo e nello spazio a fini di uso e archiviazione pubblica” 11.

Da queste definizioni emergono tre caratteristiche principali di un documento.

Il primo di questi è la presenza di un supporto di memorizzazione materiale.
In linea di principio, qualsiasi oggetto può essere considerato tale
mondo materiale, comprese le cose e i campi fisici in cui
vengono riflesse determinate informazioni. Stesso
le informazioni possono essere registrate su vari materiali
media. Il supporto cartaceo è il più utilizzato
documenti in cui vengono presentate le informazioni

in formato digitale elettronico (documenti elettronici), registrazioni video e audio.

La seconda caratteristica delle informazioni documentate è
identificabilità delle informazioni registrate sul supporto. Questo
ottenuto aggiungendo al lato del contenuto
dati informativi, detti dettagli, che consentono
stabilire la fonte e la destinazione delle informazioni, il tempo

documentandolo e, in alcuni casi, garantendo la protezione di un determinato documento (firma elettronica digitale). I dettagli devono essere registrati sullo stesso supporto materiale delle informazioni identificabili.

La terza caratteristica delle informazioni documentate, che non si riflette nelle definizioni di cui sopra, è la possibilità di modificare le forme del suo consolidamento. Questa caratteristica si manifesta nel fatto che le informazioni fissate su un supporto materiale di un tipo possono essere presentate contemporaneamente su altri tipi di media senza la minaccia di perdita del suo contenuto e dei dettagli. Essenzialmente, questa è la capacità di copiare informazioni.

L'attuale legislazione sull'informazione, e soprattutto


5.4. Modalità/Informazioni documentate Pagina 2 di 6

La legge federale “sull’informazione, la tecnologia dell’informazione e la protezione dell’informazione”, fondamentale per l’ambito dei rapporti informativi, definisce le regole fondamentali, principalmente quadro, per la documentazione delle informazioni.


Secondo l'art. 11 della presente legge dalla legislazione della Federazione Russa o
i requisiti possono essere stabiliti di comune accordo tra le parti
a documentare le informazioni. Allo stesso tempo, le autorità federali
viene effettuata la documentazione del potere esecutivo delle informazioni
secondo le modalità stabilite dal Governo della Federazione Russa. Regole

il lavoro d'ufficio e il flusso di documenti stabiliti da altri enti statali, enti locali di loro competenza, devono rispettare i requisiti stabiliti dal Governo della Federazione Russa in termini di lavoro d'ufficio e flusso di documenti per le autorità esecutive federali.

Attualmente Requisiti generali al funzionamento dei servizi
supporto documentale per la gestione, documentazione
attività di gestione e organizzazione del lavoro con i documenti
negli organi esecutivi federali - ministeri,
i servizi e le agenzie sono stabiliti dalle Istruzioni Standard
sul lavoro d'ufficio negli organi esecutivi federali,
approvato con ordinanza del Ministero della Cultura e della Messa
Comunicazioni della Federazione Russa dell'8 novembre 2005 n. 536. Inoltre, sul campo
la documentazione delle informazioni è valida GOST R 6.30-

97 “Sistema documentale unificato. Sistema unificato di documentazione organizzativa e amministrativa. Requisiti per la preparazione dei documenti" e GOST R 51141-98 "Lavoro d'ufficio e archiviazione. Termini e definizioni".

    SULLA QUESTIONE DELLA DEFINIZIONE GIURIDICA DELLE RISORSE INFORMATIVE

    R.V. AMELIN

    Con l'adozione della legge federale n. 149-FZ del 27 luglio 2006 "Sulle informazioni, le tecnologie dell'informazione e la protezione delle informazioni", la definizione giuridica delle risorse informative (IR) e una serie di norme importanti che ne regolano il regime giuridico sono scomparse dall'informazione russa legislazione. Nel frattempo, questo termine è ancora utilizzato in più di mille regolamenti, una parte significativa dei quali sono stati adottati dopo la riforma della legislazione sull’informazione del 2006. Basti citare il Decreto del Governo della Federazione Russa del 14 settembre 2012 N 928 “Sulle risorse informative statali di base”.

    N.N. Kovaleva ritiene che il ritorno del concetto di “risorsa informativa” nella legge federale garantirà la possibilità del libero utilizzo di numerose norme che menzionano questa categoria. Non condividiamo del tutto l’ottimismo dell’autore, poiché il problema sta proprio nel fatto che queste numerose normative presentano gravi discrepanze su cosa si intenda esattamente per risorsa informativa. Tuttavia, quanto più tempo passerà prima dell’inevitabile ripristino di questo concetto, tanto maggiore sarà la mole di lavoro per adeguare successivamente il quadro normativo.

    La normativa previgente definiva le risorse informative come “singoli documenti e singole serie di documenti, documenti e serie di documenti presenti in sistemi informativi (biblioteche, archivi, fondi, banche dati, altri sistemi informativi)” .

    La maggior parte degli autori moderni aderisce a questa definizione con vari chiarimenti. Di norma viene utilizzato il termine “totalità” (informazioni, documenti, banche dati, ecc.). Ad esempio, I.L. Bachilo propone di intendere le risorse informative come “un insieme di conoscenze, informazioni e altre forme di presentazione di informazioni, create, acquisite o ricevute e utilizzate da un'entità autorizzata nei propri interessi pubblici e privati ​​di altre entità in conformità con la legislazione, usi, tradizioni di un determinato Stato e le regole della comunità internazionale”.

    Allo stesso tempo, la mancanza di una definizione giuridica non può che portare a sfumare i confini del concetto. In alcuni casi, una risorsa informativa viene identificata con informazioni. Ad esempio, secondo il Model Information Code per gli stati membri della Comunità di Stati Indipendenti, le risorse informative sono qualsiasi insieme di informazioni, compresi i documenti, indipendentemente dal contenuto, dal tempo e dal luogo di creazione. Succede che le risorse informative includono sistemi informativi. Ad esempio, GOST R 27.601-2011 afferma che "le risorse informative includono sia manuali che altra documentazione di manutenzione, nonché sistemi informativi computerizzati" (clausola 7.4.1). Nell'articolo 11.2 del Codice Fiscale della Federazione Russa, una risorsa informativa è chiamata " Area personale contribuente", che in realtà è un sistema informativo (sottosistema), di cui sono parte integrante hardware e software. Va notato che i siti vengono spesso indicati in letteratura come risorse informative, anche se, a nostro avviso, è importante separare attentamente il sito come sistema informativo dotato di un'interfaccia web e il sito web come insieme di documenti (comprese le pagine web) situati in tale sistema.

    Ma anche se ci concentriamo sulla comprensione relativamente consolidata delle risorse informative come un insieme (matrice) di informazioni documentate dal punto di vista del legislatore e della scienza giuridica, la definizione sarà comunque imprecisa, poiché rimane la questione sui confini di questo insieme. È possibile considerare un insieme arbitrario di documenti (ad esempio, archiviati in una cassaforte, pubblicati su un sito Web, pubblicati sui media, ecc.) come oggetto di rapporti giuridici? È legale designare l’intero corpus di informazioni documentate degli enti statali con il termine “risorsa informativa statale”? In quale caso una serie di documenti costituisce uno speciale oggetto di regolamentazione giuridica, e si presenta affatto? Forse "risorsa informativa" è solo un comodo termine generalizzante e i rapporti giuridici reali si sviluppano esclusivamente riguardo alle singole informazioni documentate?

    Le risposte a queste domande possono essere ottenute facendo riferimento al concetto di regime giuridico di una risorsa informativa.

    Categoria "regime legale"è diventato più volte oggetto di ricerca sia in lavori sulla teoria generale del diritto che sul diritto dell'informazione. La discussione sul contenuto di questa categoria è lungi dall'essere completa e, senza entrare in polemiche, prenderemo in prestito una definizione adatta ai nostri scopi. In questo lavoro, il regime giuridico sarà inteso come un sistema di mezzi giuridici, riuniti in un'unica struttura, volti a stabilire l'autorità di un numero indefinito di soggetti in relazione ad un oggetto specificamente definito.

    Notiamo che, nonostante l'assenza del concetto di risorse informative nella legislazione, il loro regime giuridico è oggetto di molti studi moderni. Allo stesso tempo, numerosi autori in questo contesto classificano le risorse informative in base all'accessibilità, evidenziando i regimi giuridici dei segreti di stato, dei segreti commerciali, dei dati personali, ecc. . Questo criterio di classificazione si rifletteva effettivamente nella legislazione precedentemente in vigore, ma, a nostro avviso, è più appropriato parlare qui del regime giuridico dell'informazione, che ha trovato una giustificazione profonda e sistematica nella tesi di dottorato di L.K. Tereshchenko. Naturalmente, il regime giuridico delle informazioni incluse in una risorsa informativa ha un impatto significativo sul regime giuridico di quest’ultima, ma è lungi dall’essere esaustivo. Inoltre, sembra che la risorsa informativa possa includere diverse categorie di informazioni (sia segrete che non classificate).

    In relazione alle informazioni di L.K. Tereshchenko identifica i seguenti elementi del regime giuridico: scopo previsto; oggetto di regolamentazione giuridica; status giuridico dei soggetti del regime giuridico; un insieme di metodi di regolamentazione legale e mezzi di influenza legale.

    Nella legge precedentemente in vigore, il contenuto del regime giuridico delle risorse informative era sancito nella parte 2 dell'art. 4. Avrebbe dovuto essere previsto da un insieme di norme che definissero: a) le modalità di documentazione delle informazioni; b) titolarità di singoli documenti e di singole matrici di documenti, di documenti e matrici di documenti nei sistemi informativi; c) categoria delle informazioni in base al livello di accesso alle stesse; d) la procedura di tutela giuridica delle informazioni. Il terzo capitolo della Legge regolava vari aspetti dell'uso delle risorse informative.

    Molti degli studi moderni sul regime giuridico delle risorse informative prendono in prestito gli elementi sopra menzionati, che hanno perso la loro normatività, ma non il loro riconoscimento teorico. In generale, si può affermare che nella letteratura giuridica esiste un'idea relativamente consolidata del regime giuridico di una risorsa informativa con diversi approcci alla sua descrizione. A nostro avviso, T.Z. offre dettagli eccellenti. Shalaev (il concetto di risorsa informativa non è stato escluso dalla legislazione della Repubblica di Bielorussia, che apparentemente ha un effetto positivo sullo sviluppo del pensiero scientifico in questo settore): “in effetti, l'algoritmo per la formazione del regime giuridico dell'IR può essere presentato sotto forma di una sequenza compositiva di mezzi giuridici: la definizione degli obiettivi per la formazione dell'ordine IR e la formazione di una determinata composizione dell'IR; documentazione delle unità di informazione IR secondo regole e standard stabiliti; Categorie di accesso alla IR; regole e condizioni per la contabilità, la registrazione e la gestione della IR; determinazione della proprietà e/o dei diritti esclusivi sulla IR; requisiti per la sicurezza delle informazioni sulla proprietà intellettuale; procedura e condizioni per il consumo/vendita (fornitura, distribuzione, utilizzo). proprietà intellettuale; tutela giuridica e tutela della proprietà intellettuale."

    La nostra posizione di principio sulla questione dei confini del corpo delle informazioni documentate è che la composizione di una risorsa informativa non può essere determinata arbitrariamente. Come oggetto di regolamentazione legale e come educazione sistemica, una risorsa informativa deve avere la proprietà integrità, e questa proprietà può essere garantita solo stabilendola regime giuridico. Inoltre, in assenza di un regime giuridico che implica consolidamento normativo elementi sopra elencati, è illegale parlare di una risorsa informativa come oggetto speciale di rapporti giuridici. Non è necessario creare nuove entità terminologiche se dietro di esse vi sono informazioni regolari (informazioni documentate).

    Può sembrare che stiamo restringendo indebitamente la portata di un concetto che viene utilizzato in molti contesti molto diversi. Ad esempio, parlano della risorsa informativa di un utente specifico (proprietario), delle risorse informative di un'organizzazione, delle risorse informative nazionali, ecc. Ma in questi casi il termine è usato piuttosto nel significato quotidiano e non ha un valore giuridico che non sarebbe coperto dal contenuto dei termini “informazione” o “informazione documentata”. Allo stesso tempo, la totalità delle informazioni generate, elaborate e utilizzate secondo una procedura formalmente approvata deve essere oggettivamente considerata come un oggetto speciale dei rapporti giuridici, e il termine "risorsa informativa" per denotarla sembra del tutto naturale e coerente con le tradizioni della legislazione russa.

    La nostra posizione si riflette nelle seguenti conclusioni.

    1. Una risorsa informativa dovrebbe essere intesa come un insieme di informazioni documentate rispetto alle quali è stato stabilito un regime dalla legge o da altri regolamenti, compresi i motivi e la procedura per includere le informazioni nella risorsa informativa, nonché la procedura e le condizioni per il suo utilizzo (fornitura, distribuzione).

    2. La proprietà dell'integrità è costitutiva di una risorsa informativa e significa l'inammissibilità dell'espansione arbitraria o del restringimento dei confini di una risorsa informativa. Ciò non significa l'inclusione (esclusione) delle informazioni documentate nella RI, ma un cambiamento nei criteri secondo i quali le informazioni possono (dovrebbero) essere incluse nella sua composizione.

    3. L'integrità è di particolare importanza per risorse informative statali. Sulla base della definizione di cui sopra, va notato che esiste un numero significativo di tali IR, nonostante la mancanza di una definizione legale. Parliamo innanzitutto dei registri statali e delle informazioni inserite nei sistemi informativi statali. La risorsa informativa statale dovrebbe includere solo le informazioni determinate dallo scopo della sua creazione e solo secondo le modalità previste dalla legge. Qualsiasi ampliamento dell'ambito delle informazioni o dei motivi per la loro inclusione nella RE deve essere effettuato sulla base della legge. Alcuni dei motivi per cui l'integrità è particolarmente importante per la ricerca e sviluppo governativa includono quanto segue:

    1) costi di bilancio per la formazione delle risorse informative statali;

    2) per garantire l'affidabilità dell'IR, è necessario un approccio ponderato alle informazioni incluse e alle loro fonti;

    3) Le “informazioni aggiuntive” sono dannose per la soluzione dei problemi della pubblica amministrazione, come dimostrato in modo convincente, in particolare, da G.V. Atamanchuk;

    4) le informazioni incluse nella risorsa informativa nel modo prescritto possono acquisire un significato giuridico speciale a seconda dello scopo della risorsa informativa;

    5) i diritti dei cittadini e delle persone giuridiche, le cui informazioni sono incluse nella risorsa informativa, potrebbero essere compromessi.

    Notiamo che l'integrità come caratteristica costitutiva è rilevante anche per un oggetto di rapporti giuridici come una banca dati (DB). O.A. lo sottolinea giustamente. Korchemkina: “Un database è un unico insieme integrale di elementi informativi, formato attraverso connessioni logiche e semantiche tra di loro. La caratteristica in esame è una di quelle fondamentali quando si caratterizza un database, poiché ci consente di distinguere un database da una semplice compilazione - una raccolta di materiali non sistematizzati." Tuttavia, i criteri e i mezzi per garantire l’integrità del database e dell’IR differiranno. Le connessioni logiche e semantiche sono necessarie principalmente per la ricerca e l'elaborazione degli elementi informativi di un database utilizzando software e strumenti tecnologici speciali. Pertanto, l'integrità della banca dati è una caratteristica situata nella dimensione tecnica, mentre l'integrità della risorsa informativa è completamente nella dimensione legale.

    Sulla base di quanto sopra, riteniamo che le seguenti riforme della legislazione russa sull’informazione siano tardive e pertinenti.

    1. Restituendo il concetto di risorsa informativa come insieme di informazioni documentate rispetto alle quali la legge o altri regolamenti stabiliscono il loro regime.

    2. Stabilimento di requisiti legislativi per il regime giuridico di una risorsa informativa (elenco delle questioni soggette a regolamentazione obbligatoria).

    3. Istituzione di requisiti legislativi speciali per il regime giuridico delle risorse informative statali.

    La definizione giuridica di risorsa informativa costruita in questo lavoro può essere utilizzata per studiare il regime giuridico dei sistemi informativi statali e la natura giuridica del registro statale.

    Letteratura

    1. Kovaleva N.N. Regolazione amministrativa e legale dell'uso Tecnologie informatiche nella pubblica amministrazione: Dis. ...doc. legale Sci. Saratov, 2013.
    2. Legge federale del 20 febbraio 1995 N 24-FZ "Sull'informazione, l'informatizzazione e la protezione delle informazioni" (forza persa) // SZ RF. 1995. N. 8.Art. 609.
    3. Bachilo I.L. Diritto dell'informazione: libro di testo (terza edizione). M.: Yurayt, 2013.
    4. Modello di codice informativo per gli Stati membri della CSI: adottato a San Pietroburgo il 23 novembre 2012 con la risoluzione 38-6 della 38a riunione plenaria dell'Assemblea interparlamentare degli Stati membri della CSI // Bollettino informativo. Assemblea interparlamentare degli Stati parte della Comunità degli Stati Indipendenti. 2013. N 57 (parte 1). pagine 44-73.
    5. GOST R 27.601-2011. Standard nazionale della Federazione Russa "Affidabilità nella tecnologia. Gestione dell'affidabilità. Manutenzione e il suo sostegno": approvato ed attuato con Ordinanza di Rosstandart del 29 settembre 2011 N 415-st.
    6. Tishin A.P. Conto personale sul sito web del Servizio fiscale federale // Controllo fiscale. 2015. N 3. P. 22 - 32.
    7. Kucherenko A.V. DI status giuridico blogger // Diritto dell'informazione. 2015. N 1. P. 27 - 31.
    8. Lazarev S.V. Indicazioni per lo sviluppo delle tecnologie dell'informazione e della comunicazione in Russia // Arbitrato e processo civile. 2014. N 8. P. 41 - 45.
    9. Teleshina N.N. Attuazione della giustizia elettronica in Russia (usando l'esempio del tribunale arbitrale della regione di Vladimir) // Arbitrato e processo civile. 2014. N 6. P. 44 - 50.
    10. Akopov G.L. Legge sull'informazione: Esercitazione. Rostov n/d: Fenice, 2008.
    11. Soldatkina O.L. Risorse informative della politica giuridica russa: aspetto teorico generale: abstract dell'autore. dis. ...candela. legale Sci. Saratov, 2010.
    12. Starchenko A.Yu. Risorse informative delle autorità esecutive: problemi di definizione del concetto // Scienze storiche, filosofiche, politiche e giuridiche, studi culturali e storia dell'arte. Domande di teoria e pratica: in 2 ore Tambov: Certificato, 2013. N 9 (35). Seconda parte. pp. 183 - 186.
    13. Kovaleva N.N. Le autorità pubbliche come soggetti di governance sfera informativa// Diritto dell'informazione. 2013. N 2. P. 8 - 9.
    14. Alekseev S.S. Autorizzazioni generali e divieti generali nel diritto sovietico / Ed. LA. Plekhanov. M.: Letteratura giuridica, 1989.
    15. Isakov V.B. Il meccanismo della regolamentazione giuridica // Problemi di teoria dello Stato e del diritto: libro di testo / Ed. S.S. Alekseeva. M.: Letteratura giuridica, 1987.
    16. Malko A.V., Rodionov O.S. Regimi giuridici nella legislazione russa // Journal of Russian Law. 2001. N 9. P. 19 - 25.
    17. Shalaeva T.Z. Regime giuridico delle risorse informative: problemi di comprensione giuridica // Diritto dell'informazione. 2014. N 4. P. 4 - 9.
    18. Kulikova S.A. Diritto dell'informazione della Russia: un libro di testo per gli studenti che studiano nelle specialità (direzioni) "Giurisprudenza" e "Informatica applicata in diritto". Saratov: Casa editrice dell'Università di Saratov, 2010.
    19. Tereshchenko L.K. Regime giuridico dell'informazione: Dis. ...doc. legale Sci. M., 2013.
    20. Soldatkina O.L. Risorse informative della politica giuridica russa / Ed. AV. Malko. M.: Yurlitinform, 2013.
    21. Problemi attuali diritto dell'informazione/Ed. I L. Bachilo, M.A. Lapina. M.: Giustizia, 2016.
    22. Atamanchuk G.V. Teoria della pubblica amministrazione. M.: Omega-L, 2004.
    23. Amelin R.V. Iscrizione di notizie consapevolmente false nei registri dello Stato unitario: oggetto del reato // Diritto penale. 2015. N 1. P. 4 - 8.
    24. Korchemkina O.A. Il concetto e le caratteristiche di un database come oggetto di diritto // Russian Legal Journal. 2012. N 1. P. 120 - 124.

    Riferimenti

    1. Kovaleva N.N. Regolamento amministrativo-pravovoe ispolzovaniya informatsionnyih tehnologiy v gosudarstvennom upravlenii. Tesi di dottorato in Giurisprudenza. Saratov, 2013.
    3. Bachilo I.L. Informazioni fornite: Uchebnik. Mosca: Yurayt, 2013.
    6. Tishin A.P. Lichnyiy kabinet na sayte FNS // Nalogovaya proverka - Controllo fiscale. 2015. N 3. P. 22 - 32.
    7. Kucherenko A.V. Informazioni su pravovom statuse blogera // Diritto dell'informazione - Diritto dell'informazione. 2015. N 1. P. 27 - 31.
    8. Lazarev S.V. Napravleniya razvitiya informatsionno-kommunikatsionnyih tehnologiy v Rossii // Arbitrazhnyiy i grazhdanskiy protsess - Arbitrato e procedura civile. 2014. N 8. P. 41 - 45.
    9. Teleshina N.N. Realizatsiya elektronnogo pravosudiya v Rossii (na primere Arbitrazhnogo suda Vladimirskoy oblasti) // Arbitrazhnyiy i grazhdanskiy protsess - Arbitrato e procedura civile. 2014. N 6. P. 44 - 50.
    10. Akopov G.L. Informazioni pratiche: Posobie educative. Rostov sul Don, Phoenix, 2008.
    11. Soldatkina O.L. Informatsionnyie resursyi rossiyskoy pravovoy politiki: obscheteoreticheskiy aspekt. Tesi di dottorato. Saratov, 2010.
    12. Starchenko A.Yu. Informatsionnyie resursyi organov ispolnitelnoy vlasti: problemyi opredeleniya ponyatiya. Tambov, Gramota, 2013. N 35. Sentiero II. Pag. 183 - 186.
    13. Kovaleva N.N. Organyi publichnoy vlasti kak sub"ektyi upravleniya v informatsionnoy sfere // Informationnoe pravo - Legge sull'informazione. 2013. N 2. P. 8 - 9.
    14. Alekseev S.S. Obschie dozvoleniya i obschie zapretyi v sovetskom prave. Mosca: Letteratura Yuridicheskaya, 1989.
    15. Isakov V.B. Meccanismo pravovogo regulirovaniya i pravovyie rezhimyi. Problemyi teorii gosudarstva i prava - Problemi di teoria dello Stato e del diritto. Mosca: Letteratura Yuridicheskaya, 1987.
    16. Malko A.V., Rodionov O.S. Pravovyie rezhimyi v rossiyskom zakonodatelstve // ​​​​Zhurnal rossijskogo prava - Giornale di diritto russo. 2001. N 9. P. 19 - 25.
    17. Shalaeva T.Z. Pravovoy rezhim informatsionnyih resursov: problemyi pravoponimaniya // Diritto dell'informazione - Diritto dell'informazione. 2014. N 4. P. 4 - 9.
    18. Kulikova S.A. Informazioni pravo Rossii. Saratov: SGU, 2010.
    19. Tereschenko L.K. Pravovoy rezhim informatsii. Tesi di dottorato in Giurisprudenza. Mosca, 2013.
    20. Soldatkina O.L. Informatsionnyie resursyi rossiyskoy pravovoy politiki. Mosca: Yurlitinform, 2013.
    21. Aktual"nye problemy informacionnogo prava. Mosca: GIUSTIZIA, 2016.
    22. Atamanchuk G.V. Teoriya gosudarstvennogo upravleniya. Mosca: Omega-L, 2004.
    23. Amelin R.V. Vnesenie v edinyie gosudarstvennyie reestryi zavedomo nedostovernyih svedeniy: predmet prestupleniya // Ugolovnoe pravo - Diritto penale. 2015. N 1. P. 4 - 8.
    24. Korchemkina O.A. Ponyatie i priznaki bazy dannyh kak obekta prava // Rossijskij yuridicheskij zhurnal - Giornale giuridico russo. 2012. N 1. P. 120 - 124.

    La nostra azienda fornisce assistenza nella stesura di corsi e tesi di laurea, nonché di tesi di master in materia di diritto dell'informazione, vi invitiamo a utilizzare i nostri servizi. Tutto il lavoro è garantito.

Voynikanis Elena Anatolevna
Professore associato, Facoltà di Filosofia, Università Statale di Mosca

Nei testi degli atti normativi, il concetto di "informazione" è stato utilizzato per molto tempo e in modo abbastanza ampio, ma questo concetto ha acquisito un significato indipendente solo a metà. anni 90 secolo scorso, con l’inizio di un intenso sviluppo delle tecnologie dell’informazione e della comunicazione, che ha contribuito al coinvolgimento della Russia nei processi globali legati all’informatizzazione. Di conseguenza, fin dall’inizio è necessario distinguere tra l’uso giuridico del concetto di “informazione” nel senso comunemente usato e, dall’altro, il suo utilizzo come concetto centrale per regolare specifici rapporti giuridici direttamente collegati ai processi di informazione. nella società. Solo nel secondo caso si pone la necessità di una definizione che delimiti i confini di applicazione del concetto.

Il significato indipendente menzionato del concetto di "informazione" è strettamente correlato alle prospettive di sviluppo del mercato delle tecnologie dell'informazione e delle telecomunicazioni - la costruzione di una "società dell'informazione". Pertanto, l’inclusione del concetto di “informazione” nella terminologia giuridica, così come l’intenso sviluppo del ramo corrispondente, il “diritto dell’informazione”, dipende direttamente dall’adozione dell’ideologia della “società dell’informazione”, che stabilisce le norme giuridiche sistema il compito di creare le condizioni più favorevoli dal punto di vista legislativo per la sua formazione.

Il diritto è quindi inseparabile dai processi sociali generali e risponde necessariamente ai cambiamenti in atto. In particolare, “traduce” nel proprio linguaggio nuove costanti sociali ed economiche, che cominciano a determinare in un modo o nell’altro la vita della società. Ecco come appaiono i nuovi oggetti della regolamentazione legale (ad esempio "informazioni", "sito" o "nome di dominio"). L'ingresso di un nuovo oggetto nel sistema generale delle norme giuridiche è accompagnato dallo sviluppo della sua definizione giuridica.

Consideriamo la definizione giuridica di “informazione” nella legislazione russa. Nell'articolo 128 del Codice Civile della Federazione Russa, le "informazioni" sono incluse nell'elenco dei tipi di oggetti dei diritti civili. In altre parole, l'informazione è separata in una tipologia di oggetto indipendente, ma nel Codice non vengono fornite qualità specifiche per le quali viene effettuata tale distinzione. D'altra parte, con una lettura letterale del Codice (il cui capitolo 6 contiene non solo un elenco delle tipologie di oggetti dei diritti civili, ma anche le loro caratteristiche generali), solo i segreti ufficiali e commerciali dovrebbero essere classificati come informazioni. È ovvio che tale comprensione delle informazioni non solo è estremamente ristretta, ma non corrisponde nemmeno alla pratica consolidata di applicazione del concetto nella sfera del diritto civile.

Una definizione giuridicamente stabilita di "informazione" appare per la prima volta nella legge federale della Federazione Russa "sull'informazione, l'informatizzazione e la protezione delle informazioni" del 20 febbraio 1995, dove per "informazione" si intendono "informazioni su persone, oggetti, fatti, eventi , fenomeni e processi, indipendentemente dalle forme della loro presentazione." Notiamo che, oltre alla definizione stessa di “informazione”, la Legge contiene anche quella di “informazione documentata”, ovvero distingue tra informazione in quanto tale, come oggetto immateriale, e informazione associata a un supporto materiale.

Il problema è che il regime legale è stabilito solo per le informazioni documentate. Questa posizione non fornisce una risposta alle richieste specifiche della società dell'informazione. La definizione data di "informazione" è ovviamente troppo generale (ricorda una definizione simile dal "Dizionario della lingua russa" di S.I. Ozhegov), e la successiva "decifrazione" (limitando le risorse informative alle informazioni documentate) è troppo specifica. L’inefficacia della Legge Federale della Federazione Russa “Sull’informazione” è dovuta non da ultimo a queste carenze. Il problema principale – come nel caso dell'articolo 128 del Codice civile della Federazione Russa – è che l'oggetto della regolamentazione giuridica dichiarato esistente e descritto in questa definizione rimane escluso dal sistema dei rapporti giuridici civili.

Così, dalla questione di una definizione correttamente formulata, si passa alla questione del rapporto delle informazioni (e dei cosiddetti “oggetti informativi”) con altri concetti e istituti giuridici. In relazione a quest'ultimo, si pone il seguente dilemma: o la necessità di creare uno spazio giuridico speciale (se ciò è richiesto dalle specificità del nuovo oggetto), oppure l'opportunità di utilizzare i mezzi giuridici esistenti (che potrebbero non essere meno efficaci di quelli appena creati). Il primo punto di vista è stato sostenuto dal defunto prematuro V.A. Dozortsev, il secondo è difeso, ad esempio, da I.L. Bachillo.

Se parliamo delle specificità della regolamentazione legale delle informazioni su Internet, va notato quanto segue. In primo luogo, Internet nel senso stretto del termine non può essere considerato un oggetto di rapporti giuridici, siano essi civili o pubblici. I rapporti giuridici qui sorgono non tanto nei confronti di Internet stessa come rete di computer, ma piuttosto nei confronti di quegli oggetti che sono in un modo o nell'altro collegati al funzionamento di tale rete. Possiamo dire che le proprietà di Internet stessa si rivelano solo in relazione al funzionamento degli oggetti corrispondenti e sono inseparabili da quest'ultimo. Questa tesi è stata più volte espressa nelle sue pubblicazioni e nei discorsi di M.V. Yakushev.

In secondo luogo, gli oggetti direttamente collegati a Internet sono oggetti materiali ben noti alla legge (ad esempio, beni offerti in un catalogo elettronico) o oggetti informativi (protetti, a seconda del tipo specifico, dai diritti di proprietà intellettuale e da altre norme speciali). Una caratteristica degli oggetti informativi è la mancanza di “collegamento” al mezzo materiale e alla forma di presentazione delle informazioni. Questa caratteristica influenza non solo l’applicazione delle istituzioni del diritto della proprietà intellettuale, ma anche la regolamentazione, ad esempio, gestione elettronica dei documenti legati al commercio elettronico.

In terzo luogo, la regolamentazione degli oggetti di rete richiede, come dimostra la pratica, un approccio integrato che combini l'uso delle istituzioni giuridiche tradizionali con lo sviluppo di nuove istituzioni e concetti che non riorganizzano tanto il sistema di regolamentazione giuridica nel suo insieme - dal momento che gli interventi rivoluzionari che distruggono “tutto ciò che è indesiderabile” anche nel campo del diritto, così come in quello della politica, in quanto integrano sistemi normativi già esistenti. Un esempio è il concetto di “accesso”, che, a quanto pare, dovrebbe essere riconosciuto come il criterio principale o “denominatore comune” nel tracciare eventuali fatti giuridici relativi al trasferimento di proprietà dei risultati dell’attività intellettuale.

All'ultima quarta conferenza "Diritto e Internet: teoria e pratica", V.O. Kaliatin. In quarto luogo, la regolamentazione giuridica di Internet pone con nuova urgenza il problema di delimitare le sfere di regolamentazione tra la legge stessa (uno strumento di regolazione legislativa fornito da meccanismi coercitivi a livello statale) e altri sistemi di (auto)regolamentazione ( la cui fonte principale è la cosiddetta “comunità Internet”).

In quinto luogo, la limitazione dell'ambito di applicazione degli istituti tradizionali di tutela del diritto d'autore causata dall'ingerenza degli interessi pubblici. Un esempio in questo senso è l'interpretazione estensiva della dottrina del “fair use” in relazione agli oggetti elettronici soggetti a diritto d'autore, a conferma del fatto generale che una condizione necessaria per il funzionamento ottimale della società dell'informazione è la libertà di diffusione delle informazioni.