SQL entró en un mundo dominado por COBOL y FORTRAN, los cuales usan identificadores y palabras clave del lenguaje que no distinguen entre mayúsculas y minúsculas, y que usualmente usaban mayúsculas como la forma “estándar” para referirse a los elementos en el idioma (incluso si hay mucho código, incluso entonces, fue escrito usando mayúsculas y minúsculas. También había codificaciones de caracteres de seis bits que solo admitían mayúsculas (o, más precisamente, solo un caso) en uso generalizado: código de caracteres de seis bits, por lo que la mayoría de los idiomas establecían disposiciones para almacenar ocho bits (o, a veces, nueve). -bit) datos, los idiomas definidos en esos días intentaron ser “compatibles con seis bits” en términos de elementos de lenguaje. (La mayoría de las codificaciones de seis bits definieron los 26 alfas, 10 dígitos y un par de docenas de otros caracteres; por lo general, omitían caracteres con mayúsculas).
Además, algunos de los otros comportamientos de SQL, como su tratamiento impar (según los estándares modernos) de las columnas CHAR y el relleno de espacios en blanco, surgieron de la necesidad de interactuar de manera limpia con los programas COBOL, que hicieron (¿hacer?) Un comportamiento de relleno de caracteres similar.