WikiDigital

WikiDigital - Il glossario del digitale

Arduino è una piattaforma hardware composta da una serie di schede elettroniche dotate di un microcontrollore. È stata ideata e sviluppata da alcuni membri dell’ Interaction Design Institute di Ivrea come strumento per la prototipazione rapida e per scopi hobbistici, didattici e professionali.

Il nome della scheda deriva da quello del bar di Ivrea frequentato dai fondatori del progetto, nome che richiama a sua volta quello di Arduino d’Ivrea, Re d’Italia nel 1002.

Con Arduino si possono realizzare in maniera relativamente rapida e semplice piccoli dispositivi come controllori di luci, di velocità per motori, sensori di luce, autolavaggi, temperatura e umidità e molti altri progetti che utilizzano sensori, attuatori e comunicazione con altri dispositivi. È abbinato ad un semplice ambiente di sviluppo integrato per la programmazione del microcontrollore. Tutto il software a corredo è libero, e gli schemi circuitali sono distribuiti come hardware libero.

Fonte: Wikipedia

Big data (“grandi dati” in inglese) è un termine adoperato per descrivere una raccolta di dati eterogenei, strutturati e non strutturati, definita in termini di volume, velocità, varietà e veridicità. Per la gestione di tale mole di dati sono richieste tecnologie e metodi analitici specifici al fine di estrarre valore per supportare differenti tipi di analisi.

Data la complessità di una definizione univoca del termine big data, ne sono state proposte differenti da varie organizzazioni. Nel 2011, Teradata afferma che “Un sistema di big data eccede/sorpassa/supera i sistemi hardware e software comunemente usati per catturare, gestire ed elaborare i dati in un lasso di tempo ragionevole per una comunità/popolazione di utenti anche massiva.” Un’ulteriore definizione di big data è stata data dal McKinsey Global Institute: “Un sistema di Big Data si riferisce a dataset la cui taglia/volume è talmente grande che eccede la capacità dei sistemi di database relazionali di catturare, immagazzinare, gestire ed analizzare.”

Per poter parlare di big data il volume dei dati deve essere correlato alla capacità del sistema di acquisire le informazioni così come arrivano dalle differenti sorgenti dati che sono adoperate. Quindi, un sistema diventa big quando aumenta il volume dei dati e allo stesso tempo aumenta la velocità/flusso di informazioni che il sistema deve poter acquisire e gestire per secondo. Negli ultimi due anni c’è stato un incremento del 90% dei dati prodotti nel mondo. Le aziende potrebbero arrivare a produrre zettabyte di dati, ad esempio considerando dati provenienti da sensori, dati satellitari, finanziari, telefonici, ecc.

Il progressivo aumento della dimensione dei dataset è legato alla necessità di analisi su un unico insieme di dati, con l’obiettivo di estrarre informazioni aggiuntive rispetto a quelle che si potrebbero ottenere analizzando piccole serie, con la stessa quantità totale di dati. Ad esempio, l’analisi per sondare gli “umori” dei mercati e del commercio, e quindi del trend complessivo della società e del fiume di informazioni che viaggiano e transitano attraverso Internet.

Big data rappresenta anche l’interrelazione di dati provenienti potenzialmente da fonti eterogenee, quindi non soltanto i dati strutturati, come i database, ma anche non strutturati, come immagini, email, dati GPS, informazioni prese dai social network.

Con i big data la mole dei dati è dell’ordine degli zettabyte, ovvero miliardi di terabyte. Quindi si richiede una potenza di calcolo parallelo e massivo con strumenti dedicati eseguiti su decine, centinaia o anche migliaia di server.

Fonte: Wikipedia

In informatica con il termine inglese cloud computing (in italiano nuvola informatica) si indica un paradigma di erogazione di risorse informatiche, come l’archiviazione, l’elaborazione o la trasmissione di dati, caratterizzato dalla disponibilità on demand attraverso Internet a partire da un insieme di risorse preesistenti e configurabili.

Le risorse non vengono pienamente configurate e messe in opera dal fornitore apposta per l’utente, ma gli sono assegnate, rapidamente e convenientemente, grazie a procedure automatizzate, a partire da un insieme di risorse condivise con altri utenti lasciando all’utente parte dell’onere della configurazione. Quando l’utente rilascia la risorsa, essa viene similmente riconfigurata nello stato iniziale e rimessa a disposizione nel pool condiviso delle risorse, con altrettanta velocità ed economia per il fornitore.

La correttezza nell’uso del termine è contestata da molti esperti: se queste tecnologie sono viste da Rob van der Meulen e Christy Pettey di Gartner come una maggiore evoluzione tecnologica offerta dalla rete Internet, da altri, come Richard Stallman, sono invece considerate come una parola ingannevole ideata dal marketing per far cadere gli utenti nel tranello dei software offerti come servizio, che spesso li privano del controllo delle loro attività informatiche.

Fonte: Wikipedia

La domotica, dall’unione della parola domus, che in latino significa “casa”, e del suffisso greco ticos, che indica le discipline di applicazione, è la scienza interdisciplinare che si occupa dello studio delle tecnologie atte a migliorare la qualità della vita nella casa e più in generale negli ambienti antropizzati. Questa area fortemente interdisciplinare richiede l’apporto di molte tecnologie e professionalità, tra le quali ingegneria edile, architettura, ingegneria energetica, automazione, elettrotecnica, elettronica, telecomunicazioni, informatica e design.

Fonte: Wikipedia

Con il termine hardware, in ingegneria elettronica e informatica, si indica la parte fisica di un computer, ovvero tutte quelle parti elettroniche, elettriche, meccaniche, magnetiche, ottiche che ne consentono il funzionamento.

Più in generale il termine si riferisce a qualsiasi componente fisico di una periferica o di una apparecchiatura elettronica, ivi comprese le strutture di rete. L’insieme di tali componenti è anche detto componentistica.

In inglese il vocabolo significa letteralmente “ferramenta” (da hard, “duro, pesante” e ware “manufatto, oggetto”), e si contrappone al software, la parte logica (dall’inglese soft, cioè “morbido, leggero”).

Fonte: Wikipedia

In telecomunicazioni Internet delle cose (o, più propriamente, Internet degli oggetti o IoT, acronimo dell’inglese Internet of things) è un neologismo riferito all’estensione di Internet al mondo degli oggetti e dei luoghi concreti.

L’Internet delle cose è una possibile evoluzione dell’uso della Rete: gli oggetti (le “cose”) si rendono riconoscibili e acquisiscono intelligenza grazie al fatto di poter comunicare dati su se stessi e accedere ad informazioni aggregate da parte di altri. Le sveglie suonano prima in caso di traffico, le scarpe da ginnastica trasmettono tempi, velocità e distanza per gareggiare in tempo reale con persone dall’altra parte del globo, i vasetti delle medicine avvisano i familiari se si dimentica di prendere il farmaco. Tutti gli oggetti possono acquisire un ruolo attivo grazie al collegamento alla Rete.

Fonte: Wikipedia

La produzione additiva o processo additivo o tecniche additive o produzione a strati è un processo di unione dei materiali per fabbricare oggetti da modelli 3D computerizzati, di solito uno strato sopra l’altro, in opposizione alle metodologie di produzione sottrattiva. Un esempio è la modellazione a deposizione fusa o la sinterizzazione laser.

Fonte: Wikipedia

La prototipazione rapida è un insieme di tecniche industriali volte alla realizzazione fisica del prototipo, in tempi relativamente brevi, a partire da una definizione matematica tridimensionale dell’oggetto (CAD).

Fonte: Wikipedia

Il prototipo è il modello originale o il primo esemplare di un manufatto, rispetto a una sequenza di eguali o similari realizzazioni successive. Normalmente costruito in modo artigianale e in scala 1:1, sul prototipo verranno effettuati collaudi, modifiche e perfezionamenti, fino al prototipo definitivo, da avviare alla produzione in serie.

Il termine — prevalentemente utilizzato in riferimento a congegni, macchinari e veicoli — deriva dal greco πρωτότυπος, composto di πρωτο, “precedente, primario” e τύπος, “tipo”.

Il prototipo può essere concettuale, funzionale, tecnico o di preserie, e in ogni caso può svolgere funzioni differenti nell’azienda: può servire per valutare costi, tempi di ciclo, risposta del mercato e così via. Il prototipo non è una necessità avvertita solo dalle moderne aziende. Il ricorso al prototipo è, infatti, un’esigenza sentita sin dall’antichità, quando ci si poteva affidare solo a carta e attrezzi da disegno, per cui la realizzazione del prototipo permetteva di effettuare importanti osservazioni sul progetto in corso.

Fonte: Wikipedia

Per Stampa 3D si intende la realizzazione di oggetti tridimensionali mediante produzione additiva, partendo da un modello 3D digitale. Il modello digitale viene prodotto con software dedicati e successivamente elaborato per essere poi realizzato, strato dopo strato, attraverso una stampante 3D.

La stampa 3D nasce nel 1986, con la pubblicazione del brevetto di Chuck Hull, che inventa la stereolitografia.

Dal 1986 la stampa 3D si è evoluta e differenziata, con l’introduzione di nuove tecniche di stampa e di innumerevoli materiali con diverse caratteristiche meccaniche, stampabili sia da soli che in combinazione, permettendo la diffusione di questa tecnica di produzione in molti ambiti, che spaziano dall’industria all’ambito medico e domestico.

Fonte: Wikipedia

In elettronica, una scheda elettronica è un circuito stampato completo di tutti i componenti elettrici ed elettronici, unitamente agli accessori (dissipatori, connettori, ecc.) costituenti il circuito, atto a far funzionare, attraverso funzionalità proprie di elaborazione e/o controllo, una grande varietà di manufatti e apparecchi elettrici nei campi più svariati, dall’aspirapolvere al computer. A volte si tratta di un sottosistema di un sistema elettronico: più schede elettroniche interconnesse tra loro da un’unità centrale di controllo/elaborazione danno infatti vita ad un sistema elettronico.

Fonte: Wikipedia

Il software in informatica è l’informazione o le informazioni utilizzate da uno o più sistemi informatici e memorizzate su uno o più supporti informatici. Tali informazioni possono essere rappresentate da uno o più programmi, da uno o più dati, oppure da una combinazione delle due.

Il termine si contrappone tradizionalmente ad hardware (la componente fisica di un sistema di calcolo), che rende possibile l’esecuzione del software (la componente logica dello stesso). Nel tempo sono entrati nell’uso altri termini che descrivono elementi di un computer, come il firmware. Il suffisso -ware (il cui significato è «componente») viene usato anche in altri termini che indicano particolari tipi di programmi: in funzione del ruolo che hanno in un sistema di calcolo (per esempio middleware), del tipo di licenza con cui sono distribuiti (freeware, shareware), dell’edizione e altro ancora.

Sebbene popolarmente l’opinione diffusa sia che il software sia solo quello che si può trovare su un PC o al più su di uno smartphone, tipologie specifiche di software si trovano su i più disparati dispositivi (p.es. un televisore, un’automobile, un cronotermostato, una lavatrice; per non parlare tra l’altro di applicazioni produttive).

Fonte: Wikipedia

Privacy Preference Center

Close your account?

Your account will be closed and all data will be permanently deleted and cannot be recovered. Are you sure?