A tokeniza??o é um processo pelo qual PANs, PHI, PII e outros elementos de dados confidenciais s?o substituídos por valores substitutos, ou tokens. A tokeniza??o é, na verdade, uma forma de criptografia, mas os dois termos s?o normalmente usados de forma diferente. A criptografia geralmente significa codificar dados legíveis por humanos em um texto incompreensível que só é decodificado com a chave de decodifica??o correta, enquanto a tokeniza??o (ou "mascaramento" ou "ofusca??o") significa alguma forma de prote??o de dados com preserva??o de formato: converter valores confidenciais em valores de substitui??o n?o confidenciais - tokens - com o mesmo comprimento e formato dos dados originais.
Como uma forma de criptografia, a tokeniza??o é uma estratégia importante de prote??o da privacidade de dados para qualquer empresa. Esta página oferece uma vis?o de alto nível do que é a tokeniza??o e como ela funciona.
A tokeniza??o digital foi para ajudar um cliente a proteger as informa??es dos cart?es de crédito dos clientes. Os comerciantes estavam armazenando os dados dos titulares de cart?es em seus próprios servidores, o que significava que qualquer pessoa que tivesse acesso a esses servidores poderia visualizar ou tirar proveito dos números de cart?es de crédito dos clientes.
A TrustCommerce desenvolveu um sistema que substituiu os números de contas primárias (PANs) por um número aleatório chamado token. Isso permitiu que os comerciantes armazenassem e fizessem referência aos tokens ao aceitar pagamentos. O TrustCommerce converteu os tokens novamente em PANs e processou os pagamentos usando os PANs originais. Isso isolou o risco para a TrustCommerce, já que os comerciantes n?o tinham mais PANs reais armazenados em seus sistemas.
? medida que as preocupa??es com a seguran?a e os requisitos normativos aumentavam, essa tokeniza??o de primeira gera??o provou o valor da tecnologia, e outros fornecedores ofereceram solu??es semelhantes. No entanto, os problemas com essa abordagem logo ficaram claros.
Há dois tipos de tokeniza??o: 谤别惫别谤蝉í惫别濒 e ir谤别惫别谤蝉í惫别濒.
Os tokens reversíveis podem ser destokenizados, ou seja, convertidos de volta aos seus valores originais. Na terminologia de privacidade, isso é chamado de pseudonimiza??o. Esses tokens podem ser subdivididos em 肠谤颈辫迟辞驳谤á蹿颈肠辞蝉 e n?o 肠谤颈辫迟辞驳谤á蹿颈肠辞蝉, embora essa distin??o seja artificial, pois qualquer tokeniza??o é, na verdade, uma forma de criptografia.
A tokeniza??o criptográfica gera tokens usando criptografia forte; o(s) elemento(s) de dados de texto claro n?o é(s?o) armazenado(s) em lugar algum - apenas a chave criptográfica. é um exemplo de tokeniza??o criptográfica.
Originalmente, a tokeniza??o n?o criptográfica significava que os tokens eram criados pela gera??o aleatória de um valor e pelo armazenamento do texto n?o criptografado e do token correspondente em um banco de dados, como a oferta original da TrustCommerce. Essa abordagem é conceitualmente simples, mas significa que qualquer solicita??o de tokeniza??o ou destokeniza??o precisa fazer uma solicita??o ao servidor, o que aumenta a sobrecarga, a complexidade e o risco. Ela também n?o é bem dimensionada. Considere uma solicita??o para tokenizar um valor: o servidor deve primeiro fazer uma pesquisa no banco de dados para ver se já tem um token para esse valor. Se tiver, ele o retorna. Caso contrário, ele deve gerar um novo valor aleatório e, em seguida, fazer outra pesquisa no banco de dados para verificar se esse valor ainda n?o foi atribuído a um cleartext diferente. Se tiver sido, ele deverá gerar outro valor aleatório, verificar esse valor e assim por diante. ? medida que o número de tokens criados cresce, o tempo necessário para essas pesquisas no banco de dados aumenta; pior ainda, a probabilidade de tais colis?es cresce exponencialmente. Essas implementa??es também costumam usar vários servidores de tokens para balanceamento de carga, confiabilidade e failover. Eles precisam executar a sincroniza??o do banco de dados em tempo real para garantir a confiabilidade e a consistência, o que aumenta ainda mais a complexidade e a sobrecarga.
A tokeniza??o moderna n?o criptográfica concentra-se em abordagens "sem estado" ou "sem cofre", usando metadados gerados aleatoriamente que s?o combinados com seguran?a para criar tokens. Esses sistemas podem operar desconectados uns dos outros e escalar infinitamente, pois n?o exigem sincroniza??o além da cópia dos metadados originais, ao contrário da tokeniza??o apoiada em banco de dados.
Os tokens irreversíveis n?o podem ser convertidos de volta aos seus valores originais. Na terminologia de privacidade, isso é chamado de anonimiza??o. Esses tokens s?o criados por meio de uma fun??o unidirecional, permitindo o uso de elementos de dados an?nimos para análises de terceiros, dados de produ??o em ambientes inferiores etc.
A tokeniza??o requer altera??es mínimas para adicionar uma forte prote??o de dados aos aplicativos existentes. As solu??es tradicionais de criptografia ampliam os dados, exigindo altera??es significativas no banco de dados e no esquema de dados do programa, além de armazenamento adicional. Isso também significa que os campos protegidos falham em qualquer verifica??o de valida??o, exigindo mais análises e atualiza??es de código. Os tokens usam os mesmos formatos de dados, n?o exigem armazenamento adicional e podem passar por verifica??es de valida??o.
Como os aplicativos compartilham dados, a tokeniza??o também é muito mais fácil de adicionar do que a criptografia, pois os processos de troca de dados n?o s?o alterados. De fato, muitos usos intermediários de dados - entre a ingest?o e a disposi??o final - normalmente podem usar o token sem precisar destokenizá-lo. Isso aumenta a seguran?a, permitindo a prote??o dos dados o mais rápido possível na aquisi??o e mantendo-os protegidos durante a maior parte de seu ciclo de vida.
Dentro dos limites dos requisitos de seguran?a, os tokens podem reter valores de texto claro parciais, como os dígitos iniciais e finais de um número de cart?o de crédito. Isso permite que as fun??es necessárias - como roteamento de cart?o e verifica??o dos "quatro últimos" ou impress?o em recibos de clientes - sejam executadas usando o token, sem a necessidade de convertê-lo novamente no valor real.
Essa capacidade de usar tokens diretamente melhora o desempenho e a seguran?a: o desempenho, porque n?o há sobrecarga quando n?o é necessária a destokeniza??o; e a seguran?a, porque, como o texto n?o é recuperado, há menos superfície de ataque disponível.
A tokeniza??o é usada para proteger muitos tipos diferentes de dados confidenciais, incluindo:
? medida que as viola??es de dados aumentam e a seguran?a dos dados se torna cada vez mais importante, as organiza??es consideram a tokeniza??o atraente porque é mais fácil de adicionar aos aplicativos existentes do que a criptografia tradicional.
Conformidade com o PCI DSS
A prote??o de dados de cart?es de pagamento é um dos casos de uso mais comuns para a tokeniza??o, em parte devido aos requisitos de roteamento para diferentes tipos de cart?es, bem como à valida??o dos "últimos quatro" números de cart?es. A tokeniza??o de dados de cart?es recebeu um impulso inicial devido aos requisitos definidos pelo PCI SSC (Payment Card Industry Security Standards Council, Conselho de Padr?es de Seguran?a do Setor de Cart?es de Pagamento). O Padr?o de Seguran?a de Dados do Setor de Cart?es de Pagamento (PCI DSS) exige que as empresas que lidam com dados de cart?es de pagamento garantam a conformidade com requisitos rigorosos de seguran?a cibernética. Embora a prote??o dos dados de cart?es de pagamento com criptografia seja permitida pelo PCI DSS, os comerciantes também podem usar a tokeniza??o para atender aos padr?es de conformidade. Como os fluxos de dados de pagamentos s?o complexos, de alto desempenho e bem definidos, a tokeniza??o é muito mais fácil de adicionar do que a criptografia.
A tokeniza??o está se tornando uma forma cada vez mais popular de proteger os dados e pode desempenhar uma fun??o vital em uma solu??o de prote??o de privacidade de dados. 好色先生TV? A seguran?a cibernética está aqui para ajudar a proteger dados comerciais confidenciais usando o 好色先生TV? Voltage? SecureData, que oferece uma variedade de métodos de tokeniza??o para atender a todas as necessidades.
Voltage O SecureData e outras solu??es de resiliência cibernética podem aumentar a inteligência humana com inteligência artificial para fortalecer a postura de seguran?a de dados de qualquer empresa. Isso n?o apenas fornece criptografia inteligente e um processo de autentica??o mais inteligente, mas também permite a fácil detec??o de amea?as novas e desconhecidas por meio de insights contextuais sobre amea?as.
Proteja dados de alto valor e mantenha-os utilizáveis para a TI híbrida
Entenda e proteja os dados para reduzir os riscos, apoiar a conformidade e controlar o acesso aos dados