Category Archives: Arquitetura

Clean Code

Clean Code

No universo da programação, frequentemente nos deparamos com o termo: Clean Code ou Código Limpo.

Mas o que exatamente é um “código limpo”? Quais características são necessárias para obtê-lo?

Escrever um código limpo significa escrever códigos de um jeito que conseguimos entendê-lo sem complicação.

Isso não apenas simplifica a manipulação do código, mas também facilita a colaboração entre o time. No fim das contas, todo desenvolvimento e manutenção do sistema também se torna mais fácil.

De acordo com “Uncle Bob”, em seu livro “Código Limpo: Habilidades Práticas do Software Ágil”, existem algumas boas práticas fundamentais para alcançar a clareza do código.

Vamos conhecê-las, a seguir:

Utilizar os princípios SOLID:

O Clean Code e os princípios SOLID compartilham o objetivo de melhorar a qualidade do software, tornando-o legível, organizado, extensível e fácil de manter.

Neste episódio do #HipstersPontoTube sobre Clean Code e Solid, o host Paulo Silveira bate um papo com o Alberto Sousa para discutir se é necessário seguir essas práticas à risca para desenvolver um bom projeto.

Possuir nomes significativos

Nomes descritivos ajudam a entender a finalidade de uma parte do código sem a necessidade de comentários explicativos.

Para ilustrar, considere o código a seguir:

public static double conv(double tC) {
    double tF = (tC * 9 / 5) + 32;
    return tF;
}

Temos que nos esforçar para entender o que o código acima faz. Podemos melhorar o entendimento apenas adicionando nomes significativos para as variáveis e para o método:

public static double converterCelsiusParaFahrenheit(double temperaturaCelsius) {
    double temperaturaFahrenheit = (temperaturaCelsius * 9 / 5) + 32;
    return temperaturaFahrenheit;
}

Agora, fica claro qual é o propósito do código, sem a necessidade de se lembrar de fórmulas ou realizar pesquisas adicionais. Isso economiza tempo e evita confusões desnecessárias.

Priorizar o uso de funções pequenas

Escrever métodos ou funções pequenas e focadas em uma única tarefa é fundamental para manter o código claro e seguir o princípio da responsabilidade única (SRP).

Para ilustrar, considere o código a seguir:

public class Main {

    public static void main(String[] args) {
        int[] numeros = {1, 2, 3, 4, 5};

        int soma = 0;
        for (int numero : numeros) {
            soma += numero;
        }

        double media = (double) soma / numeros.length;

        if (media > 3) {
            System.out.println("A média é maior que 3");
        } else {
            System.out.println("A média é menor ou igual a 3");
        }
    }
}

Apesar do uso de nomes descritivos, a legibilidade poderia ser melhorada dividindo as tarefas em funções distintas, cada uma com sua descrição. Por exemplo:

public class Main {

    public static void main(String[] args) {
        int[] numeros = {1, 2, 3, 4, 5};

        int soma = calcularSoma(numeros);
        double media = calcularMedia(numeros);
        verificarEMostrarResultado(media);
    }

    public static int calcularSoma(int[] numeros) {
        int soma = 0;
        for (int numero : numeros) {
            soma += numero;
        }
        return soma;
    }

    public static double calcularMedia(int[] numeros) {
        return (double) calcularSoma(numeros) / numeros.length;
    }

    public static void verificarEMostrarResultado(double media) {
        if (media > 3) {
            System.out.println("A média é maior que 3");
        } else {
            System.out.println("A média é menor ou igual a 3");
        }
    }
}

Embora o código tenha ficado maior, ganhamos em legibilidade e segmentação. Qualquer pessoa que precise alterar a maneira como a média é exibida à pessoa usuária, só precisa modificar o método verificarEMostrarResultado.

Isso demonstra como funções pequenas podem facilitar a manutenção e a compreensão do código.

Evitar comentários desnecessários

O código deve ser autoexplicativo, com nomes significativos e estrutura lógica clara. Comentários excessivos podem tornar o código poluído e difícil de manter.

Para ilustrar, considere o código a seguir:

public class R {
    private double w;
    private double h;

    // Método para calcular a área
    public double calc() {
        return w * h;
    }
}

Os nomes curtos para as variáveis dificultam o entendimento, fazendo necessário o uso de comentários no nosso código, deixando o nosso código sujo. Então, podemos resolver isso adicionando nomes descritivos e removendo os comentários:

public class Retangulo {
    private double largura;
    private double altura;

    public Retangulo(double largura, double altura) {
        this.largura = largura;
        this.altura = altura;
    }

    public double calcularArea() {
        return largura * altura;
    }
}

Pronto, perceba como facilitou o entendimento. Qualquer pessoa desenvolvedora que ler este código consegue assimilar o que cada parte faz.

Evitar complexidade

A complexidade desnecessária pode aumentar a chance de erros e tornar o código difícil de manter. Um exemplo de código complexo para fazer algo simples, como somar dois números, seria:

public void soma() {
        Scanner scanner = new Scanner(System.in);

        System.out.print("Digite o primeiro número: ");
        String num1String = scanner.nextLine();

        System.out.print("Digite o segundo número: ");
        String num2String = scanner.nextLine();

        boolean validInput = false;
        double num1 = 0;
        double num2 = 0;

        while (!validInput) {
            num1 = Double.parseDouble(num1String);
            num2 = Double.parseDouble(num2String);
            validInput = true;
        }

        double soma = num1 + num2;

        System.out.println("A soma dos números é: " + soma);

        scanner.close();
    }

Repare que é feita uma verificação da entrada, para só depois convertê-la em double.

Poderíamos simplesmente considerar que é esperado que o usuário digite um double e fazer o tratamento de exceções relacionado a isso:

import java.util.InputMismatchException;
import java.util.Scanner;

public class SimpleSumWithErrorHandling {
    public static void main(String[] args) {
        Scanner scanner = new Scanner(System.in);

        try {
            System.out.print("Digite o primeiro número: ");
            double num1 = scanner.nextDouble();

            System.out.print("Digite o segundo número: ");
            double num2 = scanner.nextDouble();

            double soma = num1 + num2;

            System.out.println("A soma dos números é: " + soma);
        } catch (InputMismatchException e) {
            System.out.println("Erro: Por favor, digite números válidos.");
        } finally {
            scanner.close();
        }
    }
}

Executamos a lógica desejada de forma rápida e fácil de compreender. Imagine que precisamos somar agora 3 variáveis, ao invés de duas.

É mais fácil modificar o segundo código do que o primeiro. O segundo código é um exemplo de código limpo.

Fazer o mínimo de argumentos

Funções e métodos devem ter o mínimo possível de argumentos. Isso melhora a legibilidade e a facilidade de uso.

No exemplo a seguir, note como cadastrar uma pessoa colaboradora é complexo ao passar muitos parâmetros:

public static void cadastrarFuncionario(String nome, int idade, String cargo, double salario, String endereco, String cidade, String cep, String telefone, String email) {
        // Lógica de cadastro do funcionário aqui...

    }

Ao chamar esse método, é difícil entender qual parâmetro utilizar em que lugar, podendo confundi-los, por exemplo.

Uma boa alternativa seria criar uma classe para representar o funcionário, outra para o endereço, e mais uma para o contato. Assim, faremos a divisão:

public static void cadastrarFuncionario(Funcionario funcionario, Endereco endereco, Contato contato){
}

Dessa forma, conseguimos agrupar as informações para que seja possível usar menos argumentos. Essa é uma boa prática

Evitar código com repetição

A repetição torna o código difícil de manter, pois quando há mudanças necessárias elas precisam ser aplicadas em múltiplos lugares.

Então, extraia código repetido em funções ou métodos para promover a reutilização e a manutenção eficiente.

Um exemplo disso:

public static void main(String[] args) {
        int numero1 = 5;
        int numero2 = 7;

        // Cálculo do fatorial para o primeiro número
        int resultado1 = 1;
        for (int i = 1; i <= numero1; i++) {
            resultado1 *= i;
        }
        System.out.println("Fatorial de " + numero1 + ": " + resultado1);

        // Cálculo do fatorial para o segundo número
        int resultado2 = 1;
        for (int i = 1; i <= numero2; i++) {
            resultado2 *= i;
        }
        System.out.println("Fatorial de " + numero2 + ": " + resultado2);
    }

Como calculamos o fatorial mais de uma vez, extraímos o código para uma função, evitando repetições de cálculo no código:

public static void main(String[] args) {
        int numero1 = 5;
        int numero2 = 7;

        // Cálculo e impressão do fatorial para o primeiro número
        calcularEImprimirFatorial(numero1);

        // Cálculo e impressão do fatorial para o segundo número
        calcularEImprimirFatorial(numero2);
    }

    // Função para calcular e imprimir o fatorial de um número
    public static void calcularEImprimirFatorial(int numero) {
        int resultado = 1;
        for (int i = 1; i <= numero; i++) {
            resultado *= i;
        }
        System.out.println("Fatorial de " + numero + ": " + resultado);
    }

Dessa forma, se precisarmos calcular novamente o fatorial de outro número, não precisaremos repetir código. Basta chamar a função de calcular fatorial novamente. Isso facilita o desenvolvimento.

Vantagens de deixar o código limpo

Ao implementar cada um desses princípios e práticas, você não apenas irá melhorar a qualidade do seu código, mas também facilitará a compreensão, a manutenção e a colaboração no desenvolvimento de software. Tudo isso que discutimos aqui resume uma frase dita por Martin Fowler:

“Qualquer tolo pode escrever código que um computador pode entender. Bons programadores escrevem código que humanos podem entender”.

A programação não se trata apenas de fazer a máquina funcionar, mas também de criar soluções que sejam compreensíveis e colaborativas.

SOLID

O que é SOLID?

O acrônimo SOLID representa os cinco princípios que facilitam o processo de desenvolvimento — o que facilita a manutenção e a expansão do software.

Estes princípios são fundamentais na programação orientada a objetos e podem ser aplicados em qualquer linguagem que adote este paradigma.

Os 5 princípios são:

  • S — Single Responsibility Principle (Princípio da responsabilidade única)
  • O — Open-Closed Principle (Princípio Aberto-Fechado)
  • L — Liskov Substitution Principle (Princípio da substituição de Liskov)
  • I — Interface Segregation Principle (Princípio da Segregação da Interface)
  • D — Dependency Inversion Principle (Princípio da inversão da dependência)

Origem dos princípios SOLID

O primeiro indício dos princípios SOLID apareceu em 1995, no artigo “The principles of OoD” de Robert C Martin, também conhecido como “Uncle Bob”.

Nos anos seguintes, Robert se dedicou a escrever mais sobre o tema, consolidando esses princípios de forma categórica.

E, em 2002, lançou o livro “Agile Software Development, Principles, Patterns, and Practices” que reúne diversos artigos sobre o tema.

Agora que você já sabe o significado da sigla e a origem dos princípios, é importante dar um passo para trás para compreender o paradigma da Programação Orientada a Objetos (POO). Afinal de contas, como você já sabe, através da POO é possível aplicar os princípios SOLID.

Princípio da Responsabilidade Única (S – Single Responsibility Principle)

Para entender o princípio da responsabilidade única, vamos pensar no desenvolvimento de um gerenciador de tarefas. Vamos começar com o seguinte código:

public class GerenciadorTarefas {

    public String conectarAPI(){
        //...
    }
    public void criarTarefa(){
        //...
    }

    public void atualizarTarefa(){
        //...
    }

    public void removerTarefa(){
        //...
    }

    public void enviarNotificacao(){
        //...
    }

    public void produzirRelatorio(){
        //...
    }

    public void enviarRelatorio(){
        //...
    }

}

Problemática

Tente enumerar todas as funções que a classe GerenciadorTarefas tem. Ela é responsável por lidar com todas as operações das tarefas em si e também está consumindo uma API, enviando notificações para pessoas usuárias e ainda gerando relatórios da aplicação.

Pense na Orientação a Objetos. Um objeto gerenciador de tarefas deveria enviar e-mails e gerar relatórios? Não! Um gerenciador de tarefas gerencia as tarefas, não e-mails ou relatórios.

Solução

Para resolver esse problema vamos criar classes diferentes, cada uma representando uma função.

Nossa classe GerenciadorTarefas terá apenas o código relacionando a operação com tarefas. Outras operações estarão em outras classes. E cada classe será responsável por uma parte diferente da aplicação.

Assim, teremos a classe GerenciadorTarefas refatorada:

public class GerenciadorTarefas {

    public void criarTarefa(){
        //...
    }

    public void atualizarTarefa(){
        //...
    }

    public void removerTarefa(){
        //...
    }
}

Assim, vamos criar uma classe para consumir uma API externa, outra classe para enviar notificações e uma última classe para lidar com os relatórios.

public class ConectorAPI {

    public String conectarAPI() {
        //...
    }

}
public class Notificador {

    public void enviarNotificacao() {
        //...
    }

} 
public class GeradorRelatorio {
    public void produzirRelatorio(){
        //...
    }

    public void enviarRelatorio(){
        //...
    }

}

Talvez você se pergunte se as classes não são pequenas demais. Nesse caso, não estão. Cada classe reflete exatamente a responsabilidade que ela tem.

Se precisarmos adicionar algum método, por exemplo, relacionado ao consumo da API, vamos saber exatamente em qual parte do código devemos ir. Ou seja, fica muito mais fácil alterar o que for preciso.

Definição do Princípio da Responsabilidade Única

Em resumo, o princípio da responsabilidade única diz que: “Cada classe deve ter um, e somente um, motivo para mudar.”

Se uma classe tem várias responsabilidades, mudar um requisito do projeto pode trazer várias razões para modificar a classe. Por isso, as classes devem ter responsabilidades únicas.

Esse princípio pode ser estendido para os métodos que criamos também. Quanto mais tarefas um método executa, mais difícil é testá-lo e garantir que o programa está em ordem.

Uma dica para aplicar o princípio na prática é tentar nomear suas classes ou métodos com tudo que eles são capazes de fazer.

Se o nome está gigante, como GerenciadorTarefasEmailsRelatorios, temos um sinal de que o código pode ser refatorado.

Vantagens de aplicar o Princípio da Responsabilidade Única

Existem vários benefícios ao aplicar esse princípio, principalmente:

  • Facilidade para fazer manutenções
  • Reusabilidade das classes
  • Facilidade para realizar testes
  • Simplificação da legibilidade do código

Princípio Aberto-Fechado (O – Open Closed Principle)

Para entender o Princípio Aberto-Fechado (a letra O da sigla), vamos pensar que estamos trabalhando no sistema de uma clínica médica.

Nessa clínica, existe uma classe que trata das solicitações de exames. Inicialmente, o único exame possível é o exame de sangue. Por isso, temos o código:

public class AprovaExame {
    public void aprovarSolicitacaoExame(Exame exame){
        if(verificaCondicoesExameSangue(exame))
            System.out.println("Exame aprovado!");
    }
    public boolean verificaCondicoesExameSangue(){
        //....
    }
}

Agora, precisamos incluir uma nova funcionalidade ao sistema: a clínica vai começar a fazer exames de Raio-X. Como incluir isso no nosso código?

Uma alternativa seria verificar qual o tipo de exame está sendo feito para poder aprová-lo:

public class AprovaExame {
    public void aprovarSolicitacaoExame(Exame exame){
        if(exame.tipo == SANGUE){
            if(verificaCondicoesExameSangue(exame))
                System.out.println("Exame sanguíneo aprovado!");
        } else if(exame.tipo == RAIOX) {
            if (verificaCondicoesRaioX(exame))
                System.out.println("Raio X aprovado!");
        }

    }
    private boolean verificaCondicoesExameSangue(){
        //....
    }

    private boolean verificaCondicoesRaioX(){
        //....
    }
}

Problemática

A princípio parece tudo certo, não é mesmo? Nosso código executa normalmente e conseguimos adicionar a funcionalidade corretamente.

Mas, e se além de raio-x, a clínica passasse a fazer também ultrassons? Seguindo a lógica, iríamos adicionar mais um if no código e mais um método para olhar condições específicas do exame.

Essa definitivamente não é uma boa estratégia. Cada vez que incluir uma função, a classe (e o projeto como um todo) vai ficar mais complexa.

Por isso, é necessário uma estratégia para adicionar mais recursos ao projeto, sem modificar e bagunçar a classe original.

Solução

Nesse cenário, o projeto compreende vários tipos de aprovação de exames. Assim, podemos criar uma classe ou uma interface que representa uma aprovação de forma genérica.

A cada tipo de exame fornecido pela clínica, é possível criar novos tipos de aprovação, mais específicos, que irão implementar a interface. Assim, podemos ter o código:

public interface AprovaExame{
    void aprovarSolicitacaoExame(Exame exame);
    boolean verificaCondicoesExame(Exame exame);

}
public class AprovaExameSangue implements AprovaExame{
    @Override
    public void aprovarSolicitacaoExame(Exame exame){
            if(verificaCondicoesExame(exame))
                System.out.println("Exame sanguíneo aprovado!");

    }
    @Override
    boolean verificaCondicoesExame(Exame exame){
        //....
    }
}
public class AprovaRaioX implements AprovaExame{
    @Override
    public void aprovarSolicitacaoExame(Exame exame){
        if(verificaCondicoesExame(exame))
            System.out.println("Raio-X aprovado!");

    }
    @Override
    boolean verificaCondicoesExame(Exame exame){
        //....
    }
}

Agora, como a interface representa a aprovação de um exame, para incluir mais um recurso ou mais um tipo de exame, basta criar uma nova classe que implementa a interface AprovaExame. Essa classe vai representar como o novo exame é aprovado.

Repare que sempre será possível implementar a interface AprovaExame ao adicionarmos recursos. Essa interface, no entanto, não muda. Estamos estendendo-a, mas não alterando.

Definição do Princípio Aberto-Fechado

Assim, é possível definir o Princípio Aberto-Fechado como: “entidades de software (como classes e métodos) devem estar abertas para extensão, mas fechadas para modificação”.

Ou seja, se uma classe está aberta para modificação, quanto mais recursos adicionarmos, mais complexa ela vai ficar.

O ideal é adaptar o código não para alterar a classe, mas para estendê-la. Em geral, isso é feito quando abstraímos um código para uma interface.

Aplicando o Open-Closed, é possível deixar o nosso código semelhante ao mundo real, praticando de maneira sólida a orientação a objetos.

Pense em um caminhão: toda a sua implementação, como motor, bateria e cabine é fechada para modificação.

Vantagens de aplicar o Princípio Aberto-Fechado

Ao aplicar esse princípio, é possível tornar o projeto muito mais flexível. Adicionar novas funcionalidades torna-se uma tarefa mais fácil.

Além disso, os códigos ficam mais simples de ler. Com isso tudo, o risco de introduzir bugs diminui de forma significativa.

Além disso, esse princípio nos faz caminhar diretamente para a aplicação de alguns padrões de projeto, como o Strategy.

Assim, alinhamos várias boas práticas de desenvolvimento. O resultado disso é um código cada vez mais limpo e organizado.

Princípio de Substituição de Liskov (L – Liskov Substitution Principle)

Para entender o Princípio de Substituição de Liskov (a letra L da sigla), vamos pensar no seguinte cenário: o desenvolvimento de um sistema de uma faculdade.

Dentro do sistema, há uma classe-mãe Estudante, que representa um estudante de graduação, e a filha dela, EstudantePosGraduacao, tendo o seguinte código:

public class Estudante {
    String nome;

    public Estudante(String nome) {
        this.nome = nome;
    }

    public void estudar() {
        System.out.println(nome + " está estudando.");
    }
}
public class EstudanteDePosGraduacao extends Estudante {

    @Override
    public void estudar() {
        System.out.println(nome + " está estudando e pesquisando.");
    }
}

Para adicionar a funcionalidade entregarTCC() ao sistema, basta colocar esse método na classe Estudante O código fica assim:

class Estudante {
    String nome;

    public Estudante(String nome) {
        this.nome = nome;
    }

    public void estudar() {
        System.out.println(nome + " está estudando.");
    }

    public void entregarTCC(){
    //…
    }

}

Problemática

Você provavelmente já percebeu algo errado no código. Normalmente, estudantes de pós-graduação não entregam TCCs.

Só que a classe EstudanteDePosGraduacao é filha de Estudante, e portanto, deve apresentar todos os comportamentos dela.

Uma alternativa seria sobrescrever o método entregarTCC na classe EstudanteDePosGraduacao lançando uma exceção.

No entanto, continuaria sendo problemático: a classe EstudanteDePosGraduacao ainda não teria os comportamentos iguais aos de Estudante.

O ideal é que, nos lugares que estiver a classe Estudante, seja possível usar uma classe EstudanteDePosGraduacao, já que, pela herança, um estudante de pós-graduação é um estudante.

Solução

A solução para este problema é modificar a nossa modelagem. Podemos criar uma nova classe EstudanteDeGraduacao, que também herdará de Estudante. Essa classe terá o método entregarTCC:

public class EstudanteDeGraduacao extends Estudante {
    public void estudar() {
        System.out.println(nome + " está estudando na graduação.");
    }

    public void entregarTCC() {
    //…
    }
}

Repare que, dessa forma, nossas classes representam melhor o mundo real. Não estamos forçando uma classe a fazer algo que ela originalmente não faz.

Além disso, se precisarmos utilizar uma instância de Estudante, podemos passar, sem medo, uma instância de EstudanteDeGraduacao ou de EstudanteDePosGraduacao.

Afinal de contas, essas classes conseguem executar todas as funções de Estudante — mesmo tendo funções mais específicas.

Definição do Princípio da Substituição de Liskov

Quem propôs o Princípio da Substituição de Liskov, de maneira formal e matemática, foi Bárbara Loskov.

No entanto, Robert Martin deu uma definição mais simples para ele: “Classes derivadas (ou classes-filhas) devem ser capazes de substituir suas classes-base (ou classes-mães)”.

Ou seja, uma classe-filha deve ser capaz de executar tudo que sua classe-mãe faz. Esse princípio se conecta com o polimorfismo e reforça esse pilar da POO.

É importante notar também que, ao entendermos esse princípio, passamos a nos atentar mais para o código: caso um método de uma classe-filha tenha um retorno muito diferente do da classe-mãe, ou lance uma exceção, por exemplo, já dá para perceber que algo está errado.

Se no seu programa você tem uma abstração que se parece com um pato, faz o som de um pato, nada como um pato, mas precisa de baterias, sua abstração está equivocada.

Vantagens de aplicar o Princípio da Substituição de Liskov

Aplicar esse princípio nos traz diversos benefícios, especialmente para ter uma modelagem mais fiel à realidade, reduzir erros inesperados no programa e simplificar a manutenção do código.

Princípio de Segregação de Interface (I – Interface Segregation Principle)

Para entender o Princípio de Segregação da Interface, imagine que estamos trabalhando com um sistema de gerenciamento de funcionários de uma empresa.

Vamos criar uma interface, conforme o código abaixo:

Interface Funcionário
public interface Funcionario {

    public BigDecimal salario();
    public BigDecimal gerarComissao();

}

Repare que criamos a interface para estabelecer um “contrato” com as pessoas que são funcionárias dessa empresa. N

esse contexto, o código a seguir descreve duas classes que fazem referências a duas profissões nessa empresa: Vendedor e Recepcionista.

Ambas usam a interface Funcionario e, portanto, devem implementar os métodos salario() e gerarComissao().

Classe Vendedor
import java.math.BigDecimal;

public class Vendedor implements Funcionario {

    @Override
    public BigDecimal salario() {
    }

    @Override
    public BigDecimal gerarComissao() {
    }

}
Classe Recepcionista
import java.math.BigDecimal;

public class Recepcionista implements Funcionario{

    @Override
    public BigDecimal salario() {
    }

    @Override
    public BigDecimal gerarComissao() {
    }

}

Problemática

Analisando o código acima, faz sentido uma pessoa que possui o cargo de vendedora ou recepcionista ter salárioSim! Afinal, todos nós temos boletos para pagar.

Seguindo esta mesma linha, faz sentido uma pessoa com cargo de vendedor ou recepcionista ter comissãoNão!.

Para uma pessoa que tem o cargo de vendedora, faz sentido. Mas para a pessoa que tem o cargo de recepcionista, não faz sentido.

Ou seja, a classe Recepcionista foi forçada a implementar um método que não faz sentido para ela. Embora ela seja funcionária dessa empresa, esse cargo não recebe comissão.

Portanto, podemos perceber que este problema foi gerado por temos uma interface genérica.

Solução

Para resolver isso, é possível criar Interfaces específicas. Ao invés de ter uma única interface Funcionário, podemos ter duas: Funcionario e Comissionavel.

Interface Funcionário
import java.math.BigDecimal;

public interface Funcionario {
    public BigDecimal salario();
}

Repare que mantemos a interface Funcionario, mas retiramos o método gerarComissao() a qual é específico de algumas pessoas, para adicioná-lo em uma nova interface FuncionarioComissionavel:

Interface Comissionável
import java.math.BigDecimal;

public interface Comissionavel{
    public BigDecimal gerarComissao();
}

Agora, a pessoa que possui o direito de ter comissão irá implementar a interface Comissionavel, um exemplo disso é a classe Vendedor:

Vendedor
import java.math.BigDecimal;

public class Vendedor implements Funcionario, Comissionavel{

    @Override
    public BigDecimal salario() {
    }

    @Override
    public BigDecimal gerarComissao() {
    }

}

Agora, a classe Recepcionista pode implementar a interface Funcionario sem ter a obrigação de criar o método gerarComissao():

Recepcionista
import java.math.BigDecimal;

public class Recepcionista implements Funcionario{
    @Override
    public BigDecimal salario() {
    }
}

Definição do Princípio da Segregação da Interface

Conforme analisamos o código acima, podemos perceber que:

Devemos criar interfaces específicas ao invés de termos uma única interface genérica.

E é justamente isto que Princípio da Segregação da Interface diz: “Uma classe não deve ser forçada a implementar interfaces e métodos que não serão utilizados”.

Vantagens de aplicar o Princípio da Segregação da Interface

Seguir o Princípio da Segregação da Interface ajuda a promover a coesão e a flexibilidade em nossos sistemas, tornando-os fáceis de manter e estender.

Princípio da Inversão de Dependência (D – Dependency Inversion Principle)

Para compreender o Princípio da Inversão de Dependência (letra O da sigla) imagine que estamos trabalhando em uma startup de e-commerce e precisamos desenvolver o sistema de gerenciamento de pedidos.

Sem conhecer o Princípio da Inversão de Dependência, é bem provável que vamos desenvolver uma classe PedidoService semelhante ao código abaixo:

Classe PedidoService
public class PedidoService {
    private PedidoRepository repository;

    public PedidoService() {
        this.repository = new PedidoRepository();
    }

    public void processarPedido(Pedido pedido) {
        // Lógica de processamento do pedido
        repository.salvarPedido(pedido);
    }
}

Problemática

Aparentemente, o código parece estar certo. No entanto, se um dia precisar alterar o armazenamento deste pedido para um outro lugar (por exemplo, uma API externa), vai precisar de mais de uma classe para resolver o problema.

Afinal, a classe PedidoService está diretamente acoplada à implementação concreta da classe PedidoRepository.

Solução

Para resolver este problema, podemos criar uma interface para a classe de acesso ao banco de dados e injetá-la na classe `PedidoService´.

Dessa forma, nós estamos dependendo de abstrações e não de implementações concretas.

Interface PedidoRepository
public interface PedidoRepository {
    void salvarPedido(Pedido pedido);
}
Classe PedidoService
public class PedidoService {
    private PedidoRepository repository;

    public PedidoService(PedidoRepository repository) {
        this.repository = repository;
    }

    public void processarPedido(Pedido pedido) {
        // Lógica de processamento do pedido
        repository.salvarPedido(pedido);
    }
}

Deste modo, conseguimos fazer com que a classe de alto nível (PedidoService) seja independente dos detalhes de implementação da classe de baixo nível (PedidoRepository).

Definição do Princípio da Inversão de Dependência

Princípio da Inversão de Dependência diz: “dependa de abstrações e não de implementações concretas”.

Assim, é recomendado que os módulos de alto nível não dependam diretamente dos detalhes de implementação de módulos de baixo nível.

Em vez disso, eles devem depender de abstrações ou interfaces que definem contratos de funcionamento. Isso promove maior flexibilidade e facilita a manutenção do sistema.

Vantagens de aplicar o Princípio da Inversão de Dependência

A adesão ao Princípio de Inversão de Dependência promove a flexibilidade e a extensibilidade dos nossos sistemas.

Isso faz com que seja mais fácil fazer testes de unidade e construir códigos mais robustos e duradouros.

𝟭𝟴 𝗦𝗸𝗶𝗹𝗹𝘀 𝗙𝗼𝗿 𝗦𝗼𝗳𝘁𝘄𝗮𝗿𝗲 𝗘𝗻𝗴𝗶𝗻𝗲𝗲𝗿𝘀

1 – Programming Languages: Mastery in Python, Java, C++, crucial for coding.
2 – Algorithms & Data Structures: Core problem-solving tools for coding.
3 – SDLC (Software Development Life Cycle): Knowledge from planning to software maintenance.
4 – Version Control: Expertise in Git for code collaboration.
5 – Debugging & Testing: Identifying, fixing bugs, and testing code.
6 – Databases: Operate databases like MySQL, MongoDB efficiently.
7 – Operating Systems: Insights into memory, processes, and file systems.
8 – Networking Basics: Understanding TCP/IP, DNS, and HTTP for web apps.
9 – Cloud Computing: Use AWS, Azure for app deployment and management.
10 – CI/CD (Continuous Integration/Continuous Deployment): Automate tests and deployment with pipelines.
11 – Security Practices: Secure apps against common vulnerabilities.
12 – Software Architecture: Designing robust software structures.
13 – Problem-Solving: Tackle complex software issues effectively.
14 – Communication: Clear verbal and written interaction with teams.
15 – Project Management: Plan and monitor software projects.
16 – Machine Learning: Know-how in ML algorithms for AI projects.
17 – AI (Artificial Intelligence): Use tools like ChatGPT to speed up development.
18 – Continuous Learning: Stay updated with technological advancements.

𝟭𝟮 𝗣𝗼𝗽𝘂𝗹𝗮𝗿 𝗗𝗲𝘀𝗶𝗴𝗻 𝗣𝗮𝘁𝘁𝗲𝗿𝗻𝘀 𝗶𝗻 𝗦𝗼𝗳𝘁𝘄𝗮𝗿𝗲 𝗘𝗻𝗴𝗶𝗻𝗲𝗲𝗿𝗶𝗻𝗴

  1. Factory: Creates objects without specifying th exact class. This pattern makes code flexible and easier to extend, like a factory producing different products.
  2. Observer: Enables objects (observers) to watch changes in another object (subject). When the subject changes, observers are notified automatically, like subscribing to updates.
  3. Singleton: Ensures a class has only one instance accessible globally, useful for shared resources like databases. Think of it as “the one and only.”
  4. Builder: Constructs complex objects step-by-step. Similar to assembling LEGO bricks, this pattern makes it easy to build intricate objects.
  5. Adapter: Converts one interface into another expected by clients, making incompatible components work together. It bridges the gap between different interfaces.
  6. Decorator: Dynamically adds responsibilities to objects without changing their code. It’s like adding toppings to a pizza, offering a flexible alternative to subclassing.
  7. Proxy: Acts as a virtual representative, controlling access to an object and adding functionality, like lazy loading.
  8. Strategy: Allows selecting algorithms at runtime, enabling flexible switching of strategies to complete a task. Ideal for situations with multiple ways to achieve a goal.
  9. Command: Encapsulates requests as objects, allowing parameterization and queuing, like a to-do list for programs.
  10. Template: Defines the structure of an algorithm with overridable steps, useful for reusable workflows.
  11. Iterator: Provides a way to access elements of a collection sequentially without exposing its underlying structure, like a “tour guide” for collections.
  12. State: Allows an object to change behavior based on its internal state, keeping code organized as different states accumulate. Think of it as a traffic light guiding behavior.

Stateful vs Stateless architectures

Stateful and Stateless architectures are two approaches to managing user information and data processing in software applications, particularly in web services and APIs.

Stateful Architecture

  • Definition: In a stateful architecture, the server retains information (or state) about the client’s session. This state is used to remember previous interactions and respond accordingly in future interactions.
  • Characteristics:
    • Session Memory: The server remembers past session data, which influences its responses to future requests.
    • Dependency on Context: The response to a request can depend on previous interactions.
  • Example: An online banking application is a typical example of a stateful application. Once you log in, the server maintains your session data (like authentication, your interactions). This data influences how the server responds to your subsequent actions, such as displaying your account balance or transaction history.
  • Pros:
    • Personalized Interaction: Enables more personalized user experiences based on previous interactions.
    • Easier to Manage Continuous Transactions: Convenient for transactions that require multiple steps.
  • Cons:
    • Resource Intensive: Maintaining state can consume more server resources.
    • Scalability Challenges: Scaling a stateful application can be more complex due to session data dependencies.

Stateless Architecture

  • Definition: In a stateless architecture, each request from the client to the server must contain all the information needed to understand and complete the request. The server doesn’t rely on information from previous interactions.
  • Characteristics:
    • No Session Memory: The server does not store any state about the client’s session.
    • Self-contained Requests: Each request is independent and must include all necessary data.
  • Example: RESTful APIs are a classic example of stateless architecture. Each HTTP request to a RESTful API contains all the information the server needs to process it (like user authentication, required data), and the response to each request doesn’t depend on past requests.
  • Pros:
    • Simplicity and Scalability: Easier to scale as there is no need to maintain session state.
    • Predictability: Each request is processed independently, making the system more predictable and easier to debug.
  • Cons:
    • Redundancy: Can lead to redundancy in data sent with each request.
    • Potentially More Complex Requests: Clients may need to handle more complexities in preparing requests.

Key Differences

  • Session Memory: Stateful retains user session information, influencing future interactions, whereas stateless treats each request as an isolated transaction, independent of previous requests.
  • Server Design: Stateful servers maintain state, making them more complex and resource-intensive. Stateless servers are simpler and more scalable.
  • Use Cases: Stateful is suitable for applications requiring continuous user interactions and personalization. Stateless is ideal for services where each request can be processed independently, like many web APIs.

Conclusion

Stateful and stateless architectures offer different approaches to handling user sessions and data processing. The choice between them depends on the specific requirements of the application, such as the need for personalization, resource availability, and scalability. Stateful provides a more personalized user experience but at the cost of higher complexity and resource usage, while stateless offers simplicity and scalability, suitable for distributed systems where each request is independent.

Load Balancer vs API Gateway

Load Balancer and API Gateway are two crucial components in modern web architectures, often used to manage incoming traffic and requests to web applications. While they have some overlapping functionalities, their primary purposes and use cases are distinct.

Load Balancer

  • Purpose: A Load Balancer is primarily used to distribute network or application traffic across multiple servers. This distribution helps to optimize resource use, maximize throughput, reduce response time, and ensure reliability.
  • How It Works: It accepts incoming requests and then routes them to one of several backend servers based on factors like the number of current connections, server response times, or server health.
  • Types: There are different types of load balancers, such as hardware-based or software-based, and they can operate at various layers of the OSI model (Layer 4 – transport level or Layer 7 – application level).

Example of Load Balancer:

Imagine an e-commerce website experiencing high volumes of traffic. A load balancer sits in front of the website’s servers and evenly distributes incoming user requests to prevent any single server from becoming overloaded. This setup increases the website’s capacity and reliability, ensuring all users have a smooth experience.

API Gateway

  • Purpose: An API Gateway is an API management tool that sits between a client and a collection of backend services. It acts as a reverse proxy to route requests, simplify the API, and aggregate the results from various services.
  • Functionality: The API Gateway can handle a variety of tasks, including request routing, API composition, rate limiting, authentication, and authorization.
  • Usage: Commonly used in microservices architectures to provide a unified interface to a set of microservices, making it easier for clients to consume the services.

Example of API Gateway:

Consider a mobile banking application that needs to interact with different services like account details, transaction history, and currency exchange rates. An API Gateway sits between the app and these services. When the app requests user account information, the Gateway routes this request to the appropriate service, handles authentication, aggregates data from different services if needed, and returns a consolidated response to the app.

Key Differences:

  • Focus: Load balancers are focused on distributing traffic to prevent overloading servers and ensure high availability and redundancy. API Gateways are more about providing a central point for managing, securing, and routing API calls.
  • Functionality: While both can route requests, the API Gateway offers more functionalities like API transformation, composition, and security.

Is it Possible to Use a Load Balancer and an API Gateway Together?

Yes, you can use a Load Balancer and an API Gateway together in a system architecture, and they often complement each other in managing traffic and providing efficient service delivery. The typical arrangement is to place the Load Balancer in front of the API Gateway, but the actual setup can vary based on specific requirements and architecture decisions. Here’s how they can work together:

Load Balancer Before API Gateway

  • Most Common Setup: The Load Balancer is placed in front of the API Gateway. This is the typical configuration in many architectures.
  • Functionality: The Load Balancer distributes incoming traffic across multiple instances of the API Gateway, ensuring that no single gateway instance becomes a bottleneck.
  • Benefits:
    • High Availability: This setup enhances the availability and reliability of the API Gateway.
    • Scalability: Facilitates horizontal scaling of API Gateway instances.
  • Example: In a cloud-based microservices architecture, external traffic first hits the Load Balancer, which then routes requests to one of the several API Gateway instances. The chosen API Gateway instance then processes the request, communicates with the appropriate microservices, and returns the response.

Load Balancer After API Gateway

  • Alternative Configuration: In some cases, the API Gateway can be placed in front of the Load Balancer, especially when the Load Balancer is used to distribute traffic to various microservices or backend services.
  • Functionality: The API Gateway first processes and routes the request to an internal Load Balancer, which then distributes the request to the appropriate service instances.
  • Use Case: Useful when different services behind the API Gateway require their own load balancing logic.

Combination of Both

  • Hybrid Approach: Some architectures might have Load Balancers at both ends – before and after the API Gateway.
  • Reasoning: External traffic is first balanced across API Gateway instances for initial processing (authentication, rate limiting, etc.), and then further balanced among microservices or backend services.

Conclusion:

In a complex web architecture:

  • Load Balancer would be used to distribute incoming traffic across multiple servers or services, enhancing performance and reliability.
  • An API Gateway would be the entry point for clients to interact with your backend APIs or microservices, providing a unified interface, handling various cross-cutting concerns, and reducing the complexity for the client applications.

In many real-world architectures, both of these components work together, where the Load Balancer effectively manages traffic across multiple instances of API Gateways or directly to services, depending on the setup.

Batch vs Stream processing

Batch processing and stream processing are two methods used for processing large volumes of data, each suited for different scenarios and data processing needs.

Image
Batch Processing vs Stream Processing

Batch Processing

  • Definition: Batch processing refers to processing data in large, discrete blocks (batches) at scheduled intervals or after accumulating a certain amount of data.
  • Characteristics:
    • Delayed Processing: Data is collected over a period and processed all at once.
    • High Throughput: Efficient for processing large volumes of data where immediate action is not necessary.
  • Example: Payroll processing in a company. Salary calculations are done at the end of each pay period (e.g., monthly). All employee data over the month is processed in one large batch to calculate salaries, taxes, and other deductions.
  • Pros:
    • Resource Efficient: Can be more resource-efficient as the system can optimize for large data volumes.
    • Simplicity: Often simpler to implement and maintain than stream processing systems.
  • Cons:
    • Delay in Insights: Not suitable for scenarios requiring real-time data processing and action.
    • Inflexibility: Less flexible in handling real-time data or immediate changes.

Stream Processing

  • Definition: Stream processing involves continuously processing data in real-time as it arrives.
  • Characteristics:
    • Immediate Processing: Data is processed immediately as it is generated or received.
    • Suitable for Real-Time Applications: Ideal for applications that require instantaneous data processing and decision-making.
  • Example: Fraud detection in credit card transactions. Each transaction is immediately analyzed in real-time for suspicious patterns. If a transaction is flagged as fraudulent, the system can trigger an alert and take action immediately.
  • Pros:
    • Real-Time Analysis: Enables immediate insights and actions.
    • Dynamic Data Handling: More adaptable to changing data and conditions.
  • Cons:
    • Complexity: Generally more complex to implement and manage than batch processing.
    • Resource Intensive: Can require significant resources to process data as it streams.

Key Differences

  • Data Handling: Batch processing handles data in large chunks after accumulating it over time, while stream processing handles data continuously and in real-time.
  • Timeliness: Batch processing is suited for scenarios where there’s no immediate need for data processing, whereas stream processing is used when immediate action is required based on the incoming data.
  • Complexity and Resources: Stream processing is generally more complex and resource-intensive, catering to real-time data, compared to the more straightforward and scheduled nature of batch processing.

Conclusion

The choice between batch and stream processing depends on specific application requirements. Batch processing is suitable for large-scale data processing tasks that don’t require immediate action, like financial reporting. Stream processing is essential for real-time applications, like monitoring systems or real-time analytics, where immediate data processing and quick decision-making are crucial.

Latency and throughput

Latency and throughput are two critical performance metrics in software systems, but they measure different aspects of the system’s performance.

Latency

  • Definition: Latency is the time it takes for a piece of data to travel from its source to its destination. In other words, it’s the delay between the initiation of a request and the receipt of the response.
  • Characteristics:
    • Measured in units of time (milliseconds, seconds).
    • Lower latency indicates a more responsive system.
  • Impact: Latency is particularly important in scenarios where real-time or near-real-time interaction or data transfer is crucial, such as in online gaming, video conferencing, or high-frequency trading.
  • Example: If you click a link on a website, the latency would be the time it takes from the moment you click the link to when the page starts loading.

Throughput

  • Definition: Throughput refers to the amount of data transferred over a network or processed by a system in a given amount of time. It’s a measure of how much work or data processing is completed over a specific period.
  • Characteristics:
    • Measured in units of data per time (e.g., Mbps – Megabits per second).
    • Higher throughput indicates a higher data processing capacity.
  • Impact: Throughput is a critical measure in systems where the volume of data processing is significant, such as in data backup systems, bulk data processing, or video streaming services.
  • Example: In a video streaming service, throughput would be the rate at which video data is transferred from the server to your device.

Latency vs Throughput – Key Differences

  • Focus: Latency is about the delay or time, focusing on speed. Throughput is about the volume of work or data, focusing on capacity.
  • Influence on User Experience: High latency can lead to a sluggish user experience, while low throughput can result in slow data transfer rates, affecting the efficiency of data-intensive operations.
  • Trade-offs: In some systems, improving throughput may increase latency, and vice versa. For instance, sending data in larger batches may improve throughput but could also result in higher latency.

Improving latency and throughput often involves different strategies, as optimizing for one can sometimes impact the other. However, there are several techniques that can enhance both metrics:

How to Improve Latency

  1. Optimize Network Routes: Use Content Delivery Networks (CDNs) to serve content from locations geographically closer to the user. This reduces the distance data must travel, decreasing latency.
  2. Upgrade Hardware: Faster processors, more memory, and quicker storage (like SSDs) can reduce processing time.
  3. Use Faster Communication Protocols: Protocols like HTTP/2 can reduce latency through features like multiplexing and header compression.
  4. Database Optimization: Use indexing, optimized queries, and in-memory databases to reduce data access and processing time.
  5. Load Balancing: Distribute incoming requests efficiently among servers to prevent any single server from becoming a bottleneck.
  6. Code Optimization: Optimize algorithms and remove unnecessary computations to speed up execution.
  7. Minimize External Calls: Reduce the number of API calls or external dependencies in your application.

How to Improve Throughput

  1. Scale Horizontally: Add more servers to handle increased load. This is often more effective than vertical scaling (upgrading the capacity of a single server).
  2. Implement Caching: Cache frequently accessed data in memory to reduce the need for repeated data processing.
  3. Parallel Processing: Use parallel computing techniques where tasks are divided and processed simultaneously.
  4. Batch Processing: For non-real-time data, processing in batches can be more efficient than processing each item individually.
  5. Optimize Database Performance: Ensure efficient data storage and retrieval. This may include techniques like partitioning and sharding.
  6. Asynchronous Processing: Use asynchronous processes for tasks that don’t need to be completed immediately.
  7. Network Bandwidth: Increase the network bandwidth to accommodate higher data transfer rates.

Conclusion

Low latency is crucial for applications requiring fast response times, while high throughput is vital for systems dealing with large volumes of data.

Importance of discussing Trade-offs

Presenting trade-offs in a system design interview is highly significant for several reasons as it demonstrates a depth of understanding and maturity in design. Here’s why discussing trade-offs is important:

1. Shows Comprehensive Understanding

  • Balanced Perspective: Discussing trade-offs indicates that you understand there are multiple ways to approach a problem, each with its advantages and disadvantages.
  • Depth of Knowledge: It shows that you’re aware of different technologies, architectures, and methodologies, and understand how choices impact a system’s behavior and performance.

2. Highlights Critical Thinking and Decision-Making Skills

  • Analytical Approach: By evaluating trade-offs, you demonstrate an ability to analyze various aspects of a system, considering factors like scalability, performance, maintainability, and cost.
  • Informed Decision-Making: It shows that your design decisions are thoughtful and informed, rather than arbitrary.

3. Demonstrates Real-World Problem-Solving Skills

  • Practical Solutions: In the real world, every system design decision comes with trade-offs. Demonstrating this understanding aligns with practical, real-world scenarios where perfect solutions rarely exist.
  • Prioritization: Discussing trade-offs shows that you can prioritize certain aspects over others based on the requirements and constraints, which is a critical skill in system design.

4. Reveals Awareness of Business and Technical Constraints

  • Business Acumen: Understanding trade-offs indicates that you’re considering not just the technical but also the business implications of your design choices (like cost implications, time to market).
  • Adaptability: It shows you can adapt your design to meet different priorities and constraints, which is key in a dynamic business environment.

5. Facilitates Better Team Collaboration and Communication

  • Communication Skills: Clearly articulating trade-offs is a vital part of effective technical communication, crucial for collaborating with team members and stakeholders.
  • Expectation Management: It helps in setting realistic expectations and preparing for potential challenges in implementation.

6. Prepares for Scalability and Future Growth

  • Long-term Vision: Discussing trade-offs shows that you’re thinking about how the system will evolve over time and how early decisions might impact future changes or scalability.

7. Shows Maturity and Experience

  • Professional Maturity: Recognizing that every decision has pros and cons reflects professional maturity and experience in handling complex projects.
  • Learning from Experience: It can also indicate that you’ve learned from past experiences, applying these lessons to make better design choices.

Conclusion

In system design interviews, discussing trade-offs is not just about acknowledging that they exist, but about demonstrating a well-rounded and mature approach to system design. It reflects a candidate’s ability to make informed decisions, a deep understanding of technical principles, and an appreciation of the broader business context.

Up next, let’s discuss some essential trade-offs that you can explore during a system design interview.

REST vs RPC

REST (Representational State Transfer) and RPC (Remote Procedure Call) are two architectural approaches used for designing networked applications, particularly for web services and APIs. Each has its distinct style and is suited for different use cases.

REST (Representational State Transfer)

  • Concept: REST is an architectural style that uses HTTP requests to access and manipulate data. It treats server data as resources that can be created, read, updated, or deleted (CRUD operations) using standard HTTP methods (GET, POST, PUT, DELETE).
  • Stateless: Each request from client to server must contain all the necessary information to understand and complete the request. The server does not store any client context between requests.
  • Data and Resources: Emphasizes on resources, identified by URLs, and their state transferred over HTTP in a textual representation like JSON or XML.
  • Example: A RESTful web service for a blog might provide a URL like http://example.com/articles for accessing articles. A GET request to that URL would retrieve articles, and a POST request would create a new article.

Advantages of REST

  • Scalability: Stateless interactions improve scalability and visibility.
  • Performance: Can leverage HTTP caching infrastructure.
  • Simplicity and Flexibility: Uses standard HTTP methods, making it easy to understand and implement.

Disadvantages of REST

  • Over-fetching or Under-fetching: Sometimes, it retrieves more or less data than needed.
  • Standardization: Lacks a strict standard, leading to different interpretations and implementations.

RPC (Remote Procedure Call)

  • Concept: RPC is a protocol that allows one program to execute a procedure (subroutine) in another address space (commonly on another computer on a shared network). The programmer defines specific procedures.
  • Procedure-Oriented: Clients and servers communicate with each other through explicit remote procedure calls. The client invokes a remote method, and the server returns the results of the executed procedure.
  • Data Transmission: Can use various formats like JSON (JSON-RPC) or XML (XML-RPC), or binary formats like Protocol Buffers (gRPC).
  • Example: A client invoking a method getArticle(articleId) on a remote server. The server executes the method and returns the article’s details to the client.

Advantages of RPC

  • Tight Coupling: Allows for a more straightforward mapping of actions (procedures) to server-side operations.
  • Efficiency: Binary RPC (like gRPC) can be more efficient in data transfer and faster in performance.
  • Clear Contract: Procedure definitions create a clear contract between the client and server.

Disadvantages of RPC

  • Less Flexible: Tightly coupled to the methods defined on the server.
  • Stateful Interactions: Can maintain state, which might reduce scalability.

Conclusion

  • REST is generally more suited for web services and public APIs where scalability, caching, and a uniform interface are important.
  • RPC is often chosen for actions that are tightly coupled to server-side operations, especially when efficiency and speed are critical, as in internal microservices communication.