A Trajetória da SEGER em Ciência de Dados: o impacto e aceitação do software na gestão

O terceiro módulo da especialização para 30 servidores em Ciência de Dados é o de Inferência Estatística. Além deste módulo, nosso programa completo está estabelecido da seguinte forma:

  • Análise Exploratória de Dados e Visualização
  • Tecnologias de Armazenamento de Dados
  • Estatística Inferencial
  • Data Mining e Machine Learning
  • Análise de Séries Temporais
  • Análise de Redes, Mineração de Texto e Mídias Sociais

Já escrevi dois posts sobre nossa jornada que podem ser acessados aqui:

Post 1: Construindo uma organização que aprende: capacitação em ciência de dados para a SEGER no espírito santo

Post 2: Transformação digital na SEGER: a aplicação de ia e análise preditiva na gestão da folha de pagamento

Este post não é sobre a disciplina de Inferência Estatística aplicada ao nosso negócio. Meu o foco principal é a apresentação dos resultados do formulário enviado aos participantes, que tem por objetivo avaliar a aceitação e o uso da nova tecnologia a ser incorporado no nosso dia a dia.

As teorias de aceitação de tecnologias são modelos propostos para explicar o comportamento de uso e aceitação de novas tecnologias pelos indivíduos. Essas teorias são desenvolvidas no campo da engenharia de software e têm como objetivo compreender as razões pelas quais as pessoas aceitam ou rejeitam uma nova tecnologia. Alguns pontos importantes sobre as teorias de aceitação de tecnologias são:

Percepção de Utilidade: Este é o grau em que um indivíduo acredita que o uso de uma tecnologia específica melhorará seu desempenho no trabalho. No contexto da SEGER, a utilidade pode ser entendida como a eficácia percebida da IA e do Aprendizado de Máquina na otimização da análise da folha de pagamento e outras funções relacionadas.

Percepção de Facilidade de Uso: Refere-se à crença de que usar uma tecnologia será livre de esforço. A formação oferecida aos servidores deve, portanto, garantir que eles percebam as novas ferramentas e técnicas como intuitivas e fáceis de usar.

Atitude em relação ao Uso: É a avaliação positiva ou negativa que um indivíduo tem sobre a execução do comportamento de usar uma tecnologia. Por exemplo, a percepção dos servidores da SEGER em relação à implementação de novos softwares ou algoritmos na analise da folha de pagamento.

Influência Social: Trata da percepção de que pessoas importantes (como superiores ou colegas) acreditam que o indivíduo deve ou não usar a nova tecnologia. Esta influência pode ser crucial no ambiente de trabalho, especialmente em órgãos públicos.

Condições Facilitadoras: São aqueles fatores que tornam mais fácil (ou difícil) para um indivíduo usar a tecnologia, como a infraestrutura disponível, suporte técnico e treinamento.

Com base nesses conceitos, foi enviado um formulário aos servidores que estão participando da especialização. O objetivo era entender a percepção sobre o uso do SAS em suas rotinas de trabalho.

Uma das principais conclusões extraídas do formulário indica que, na perspectiva dos entrevistados, o SAS não só atende às necessidades da gestão da folha de pagamento como também tem o potencial de aumentar significativamente a eficiência das tarefas.

Sobre as perguntas: O uso do SAS pode melhorar o tempo de resposta nas tarefas relacionadas a produção de relatórios e informações gerenciais? e Você acha que o SAS é uma ferramenta que atende às necessidades da gestão da folha de pagamento na SEGER?, os resultados da análise indicam que há uma associação estatisticamente significativa entre as respostas às duas perguntas, tanto pelo teste do qui-quadrado (p-value: 0,035) quanto pelo teste de Fisher (p-value: 0.028). As pessoas que veem o SAS como uma ferramenta útil para melhorar a eficiência do tempo de resposta são provavelmente as mesmas que acreditam que ele atende às necessidades da gestão da folha de pagamento. Você pode conferir as perguntas do formulário no final do artigo.

Sobre a recomendação do software, podemos inferir que a experiência prévia com o software SAS pode influenciar se os usuários irão ou não recomendar o uso do software para outras organizações. Os usuários que já tinham experiência com o SAS antes de sua implementação na SEGER podem estar mais confortáveis com o software e, portanto, mais propensos a recomendá-lo para outras organizações.

Com base no formulário enviado, temos ainda alguns dados interessantes:

  • A média de idade dos participantes do curso é de 40 anos, e 77% dos servidores tem mais de 13 anos de trabalho na secretaria;
  • Dois terços dos participantes é do gênero feminino;
  • Antes do treinamento, 89% dos alunos não tinham experiência prévia com o SAS;
  • 67% acham que o uso do SAS pode melhorar ou melhorar muito a produção de relatórios;
  • 67% afirmam que o SAS é uma ferramenta que atende às necessidades da gestão da folha de pagamento na SEGER

A adoção de novas tecnologias no ambiente de trabalho, particularmente em setores públicos como a SEGER, pode ser um desafio, pois envolve mudanças nas rotinas estabelecidas e exige a capacitação dos servidores. No entanto, os dados coletados do formulário demonstram uma visão positiva dos servidores em relação à implementação do SAS. Isso sugere que a introdução deste software na gestão da folha de pagamento da SEGER é uma escolha acertada.

Importante salientar que a aceitação do software não se baseia apenas em sua funcionalidade, mas também na formação e no suporte contínuo oferecido aos servidores. O fato de a maioria dos servidores não possuir experiência prévia com o SAS e, mesmo assim, reconhecer sua relevância e eficácia, destaca o sucesso e a do treinamento oferecido.

Além disso, a demografia dos participantes mostra uma mistura saudável de veteranos da SEGER e indivíduos mais jovens, garantindo que a transição tecnológica seja abrangente e inclusiva.

Finalmente, é imprescindível que a SEGER continue monitorando o uso e a eficácia do SAS, bem como a satisfação dos servidores, para fazer quaisquer ajustes necessários. Estes feedbacks contínuos garantirão que a ferramenta continue sendo relevante e eficaz em suas funções.

Formulário enviado:

  • Qual a sua Função/Cargo?
  • Quanto tempo você tem de SEGER?
  • Qual a sua idade?
  • Qual o seu gênero?
  • Como você classificaria sua experiência prévia com o software SAS antes de ser implementado na SEGER?
  • Quão confortável você se sente usando o SAS?
  • O treinamento que está sendo fornecido é suficiente para você se sentir confortável usando o SAS?
  • Como você avalia o suporte disponível para ajudá-lo a resolver problemas ou dúvidas relacionados ao SAS?
  • O uso do SAS pode melhorar o tempo de resposta nas tarefas relacionadas a produção de relatórios e informações gerenciais?
  • Você acredita que a implementação do SAS pode melhorar a eficiência da gestão da folha de pagamento?
  • Você acha que o SAS é uma ferramenta que atende às necessidades da gestão da folha de pagamento na SEGER?
  • Você recomendaria o uso do SAS para outras organizações na gestão de suas folhas de pagamento?
  • Quais recursos adicionais ou treinamentos você acha que seriam úteis para aumentar a eficiência do uso do SAS?
  • Por favor, compartilhe quaisquer outros comentários ou sugestões que você possa ter para melhorar a implementação e o uso do SAS na SEGER.

Para escrever esse post eu usei as seguintes referências:

AL QEISI, K. I.; AL-ABDALLAH, G. M. Website Design and Usage Behaviour: An Application of the UTAUT Model for Internet Banking in UK. International Journal of Marketing Studies, v. 6, n. 1, p. p75, 22 jan. 2014.

CHUTTUR, M. Overview of the Technology Acceptance Model: Origins, Developments and Future Directions. 2009.

DAVIS, F. D. Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology. MIS Quarterly, v. 13, n. 3, p. 319, set. 1989.

IM, I.; HONG, S.; KANG, M. S. An international comparison of technology adoption. Information & Management, v. 48, n. 1, p. 1–8, jan. 2011.

LEE, Y.; KOZAR, K. A.; LARSEN, K. R. T. The Technology Acceptance Model: Past, Present, and Future. Communications of the Association for Information Systems, v. 12, 2003.

LEIDNER; KAYWORTH. Review: A Review of Culture in Information Systems Research: Toward a Theory of Information Technology Culture Conflict. MIS Quarterly, v. 30, n. 2, p. 357, 2006.

MARCHEWKA, J. T.; KOSTIWA, K. An Application of the UTAUT Model for Understanding Student Perceptions Using Course Management Software. Communications of the IIMA, v. 7, n. 2, 30 maio 2014.

MOMANI, A. M. The Unified Theory of Acceptance and Use of Technology: A New Approach in Technology Acceptance. International Journal of Sociotechnology and Knowledge Development, v. 12, n. 3, p. 79–98, 1 jul. 2020.

MOMANI, A. M.; JAMOUS, M. M.; HILLES, S. M. S. Technology Acceptance Theories: Review and Classification. International Journal of Cyber Behavior, Psychology and Learning, v. 7, n. 2, p. 1–14, abr. 2017.

OKUMUS, B. et al. Psychological factors influencing customers’ acceptance of smartphone diet apps when ordering food at restaurants. International Journal of Hospitality Management, v. 72, p. 67–77, jun. 2018.

QIAO, P. et al. The Development and Adoption of Online Learning in Pre- and Post-COVID-19: Combination of Technological System Evolution Theory and Unified Theory of Acceptance and Use of Technology. Journal of Risk and Financial Management, v. 14, n. 4, p. 162, 5 abr. 2021.

SCHERER, R.; SIDDIQ, F.; TONDEUR, J. The technology acceptance model (TAM): A meta-analytic structural equation modeling approach to explaining teachers’ adoption of digital technology in education. Computers & Education, v. 128, p. 13–35, jan. 2019.

SUN, H.; ZHANG, P. The role of moderating factors in user technology acceptance. International Journal of Human-Computer Studies, v. 64, n. 2, p. 53–78, fev. 2006.

TAHERDOOST, H. A review of technology acceptance and adoption models and theories. Procedia Manufacturing, v. 22, p. 960–967, 2018.

TEH, P.-LEE.; AHMED, P. KHALID. Understanding social commerce adoption: An extension of the Technology Acceptance Model. 2012 IEEE International Conference on Management of Innovation & Technology (ICMIT). Anais… Em: 2012 IEEE 6TH INTERNATIONAL CONFERENCE ON MANAGEMENT OF INNOVATION & TECHNOLOGY (ICMIT 2012). Bali, Indonesia: IEEE, jun. 2012. Disponível em: <http://ieeexplore.ieee.org/document/6225832/>. Acesso em: 19 maio. 2023

VENKATESH et al. User Acceptance of Information Technology: Toward a Unified View. MIS Quarterly, v. 27, n. 3, p. 425, 2003.

VENKATESH, V. Determinants of Perceived Ease of Use: Integrating Control, Intrinsic Motivation, and Emotion into the Technology Acceptance Model. Information Systems Research, v. 11, n. 4, 2000.

VENKATESH, V.; DAVIS, F. D. A Theoretical Extension of the Technology Acceptance Model: Four Longitudinal Field Studies. Management Science, v. 46, n. 2, p. 186–204, fev. 2000.

Transformação Digital na SEGER: A Aplicação de IA e Análise Preditiva na Gestão da Folha de Pagamento

Continuando o relato sobre a jornada da SEGER – Secretaria de Gestão e Recursos Humanos do Espírito Santo, rumo à jornada na ciência de dados, vou aprofundar sobre o compromisso e os desafios que essa jornada nos reserva. Com a especialização em ciência de dados iniciada para 30 servidores, queremos evidenciar que a aprendizagem não é um fim em si, mas um processo contínuo de evolução.

Nossa primeira prática será o uso de Aprendizado de Máquina para realizarmos uma análise preditiva nos registros que acompanham a folha de pagamento. Nosso objetivo é evidenciar padrões, prever resultados e analisar tendências futuras.

De acordo com os resultados da pesquisa “The Payroll Operations Survey” realizada pela Deloitte, o maior desafio das organizações em gerenciar a folha de pagamentos é a presença de processos manuais, que foi relatado por 23% dos entrevistados. Além disso, 81% dos entrevistados realizam revisões periódicas em seus processos de folha de pagamento, com 57% revisando várias áreas do processo de folha, com foco em controles e precisão. Outros desafios incluem a determinação de obrigações de retenção de impostos, relatórios de compensação tributável e eficiência no processamento de impostos.

Para organizações com uma força de trabalho global móvel, os maiores desafios incluem o processamento de fim de ano, a definição de responsabilidades de retenção e a geração de relatórios. As organizações estão cada vez mais confiando em modelos de governança formalmente estabelecidos e análises para gerenciar os processos e resultados produzidos pela função de folha de pagamento.

Com o avanço da Inteligência artificial, os líderes do Setor Público estão investindo em tecnologia para aumentar a eficiência, minimizar riscos e se concentrar principalmente no trabalho que precisa ser feito, garantindo dessa forma uma melhor experiência do servidor.

A IA pode ser usada para responder a perguntas básicas e comuns sobre a folha de pagamento de forma instantânea, através de chatbots e de relatórios visuais, os dashboards. Eles podem responder com precisão a perguntas sobre tempo de pagamento, montantes de pagamento, horas extras e pagamento de férias, tributação e deduções fiscais e pagamentos de benefícios.

Em relação à identificação de irregularidades nos vencimentos e despesas e nas folhas de ponto dos funcionários a IA e o aprendizado de máquina também são usados para garantir que os servidores estejam protegidos contra erros, ou até mesmo fraude no rastreamento do tempo dos funcionários. A IA e a análise de dados estão sendo usadas para prever as horas esperadas trabalhadas em um período de pagamento e, em seguida, sinalizar quaisquer anomalias que requeiram investigação.

O uso contínuo dos modelos de Aprendizado de Máquina pode ainda garantir a conformidade com as leis e regulamentos fiscais. As ferramentas de IA podem comparar remessas fiscais passadas com a remessa atual, sinalizando quaisquer discrepâncias que devem ser revisadas antes da remessa final.

Na SEGER, os benefícios do uso da IA na gestão da folha de pagamento incluem ainda:

Minimização de erros: A IA pode minimizar erros resultantes do envolvimento humano na folha de pagamento, tornando o processo mais preciso.

Automação de tarefas rotineiras: A IA e o aprendizado de máquina podem automatizar tarefas mundanas, como a gravação de horas trabalhadas e o cálculo de salários.

Conformidade e gestão de riscos: A IA pode ajudar a monitorar e compreender as mudanças legislativas, reduzindo o risco de não conformidade e ajudando a garantir a conformidade contínua.

Gerenciamento eficiente de dados: A IA pode melhorar o gerenciamento de dados na folha de pagamento, automatizando a aprovação de folhas de ponto, pedidos de folga e alterações na folha de pagamento.

Melhoria da integração das funções: A IA pode resolver dissimilaridades entre diferentes funções e promover uma integração perfeita, reduzindo a necessidade de pessoal e minimizando os erros.

Gerenciamento inteligente: A IA pode automatizar o processo de analisar padrões de trabalho passados, níveis de estresse, desempenho dos funcionários, registros de presença e outros dados-chave.

São inúmeros benefícios que podemos colher com o uso automatizado da auditoria na folha de pagamento. No nosso estado há um número considerável de registros e relacionamentos complexos na base relacional.  A inteligência artificial está revolucionando a função de gestão da folha de pagamento ao processar eficientemente grandes volumes de dados da folha, minimizando os erros resultantes do envolvimento humano. Ao automatizar tarefas como o cálculo de salários e o registro de horas trabalhadas, a IA está se tornando uma ferramenta valiosa para os negócios.

 

Para escrever este post eu usei as seguintes referências:

Changing the focus of payroll with artificial intelligence. Disponível em: <https://blogs.oracle.com/oraclehcm/post/changing-the-focus-of-payroll-with-ai>. Acesso em: 26 jun. 2023.

How AI Can Help Eliminate Common Payroll Issues. Disponível em: <https://www.analyticsinsight.net/how-ai-can-help-eliminate-common-payroll-issues/>. Acesso em: 10 jun. 2023.

How Machine Learning is Changing the Payroll Process – InfinitePeer. , 20 dez. 2022. Disponível em: <https://infinitepeer.com/how-machine-learning-is-changing-the-payroll-process/>. Acesso em: 13 jun. 2023

How Payroll AI and Machine Learning Are Transforming Businesses. Disponível em: <https://www.smartdatacollective.com/how-payroll-ai-machine-learning-transforming-businesses/>. Acesso em: 10 maio 2023.

RAMAKRISHNAN, M. Machine Learning in Finance: 7 Smart Industry Applications. Emeritus Online Courses, 11 nov. 2022. Disponível em: <https://emeritus.org/blog/5-benefits-of-using-machine-learning-in-finance/>. Acesso em: 6 jun. 2023

Revolutionizing Payroll with AI and Machine Learning. Disponível em: <http://www.neeyamo.com/blog/revolutionizing-payroll-ai-and-machine-learning>. Acesso em: 15 jun. 2023.

The Big Book of Machine Learning Use Cases. Disponível em: <https://www.databricks.com/resources/ebook/big-book-of-machine-learning-use-cases>. Acesso em: 2 jun. 2023.

Construindo uma Organização que Aprende: Capacitação em Ciência de Dados para a SEGER no Espírito Santo

Este mês, iniciamos na SEGER – Secretaria de Gestão e Recursos Humanos do Espírito Santo uma especialização para 30 servidores em Ciência de Dados, trabalhando com uma das melhores e mais reconhecida plataforma para análise de dados.

Ser uma organização que aprende por meio dos dados, requer primeiro que os servidores adquiram uma nova competência. A capacitação faz parte do processo de reaprendizado. O fato de comprar os direitos de uso de um software não instala a habilidade nas pessoas.

Peter Senge em seu icônico livro “A Quinta Disciplina afirma que a aprendizagem individual não garante a aprendizagem organizacional, entretanto, sem ela, não há aprendizagem organizacional. É preciso, que a liderança reconheça e esteja comprometida com a aprendizagem na organização. Neste contexto, aprender uma nova habilidade significa expandir a capacidade de produzir resultados que realmente as pessoas esperam.

O compromisso com o crescimento das pessoas, adotado pelas lideranças da SEGER e do Governo do Estado faz parte de um processo. Um momento crucial na evolução de uma organização ocorre quando os líderes assumem que seus colaboradores precisam também vencer o status quo.

Sem aprender algo novo, as empresas tendem a repetir práticas antigas, e sabemos que práticas antigas para novos problemas não são eficazes. Para sobreviver ao século XXI, as organizações devem se esforçar em eliminar as barreiras que impedem o aprendizado e começar a movê-lo para um lugar mais alto na agenda organizacional.

Para David Garvin, uma organização que aprende é habilidosa em criar, adquirir e transferir conhecimento, e em modificar seu comportamento para refletir novos conhecimentos e percepções. Para Garvin, organizações que aprendem são proficientes em cinco atividades principais:

  • resolução sistemática de problemas;
  • experimentação com novas abordagens;
  • aprendizado com sua própria experiência e história passada;
  • aprendizado com as experiências e melhores práticas de outros;
  • transferência de conhecimento de forma rápida e eficiente em toda a organização.

Ao tornar a SEGER uma organização que aprende, o comportamento das pessoas está positivamente associado ao desempenho da equipe. Ao capacitar as pessoas, a organização não só está possibilitando o aprendizado de uma nova habilidade, mas está passando uma mensagem positiva para que as pessoas invistam em conhecimento.

As organizações que aprendem são aquelas que incentivam a curiosidade natural dos indivíduos e promovem um ambiente de aprendizado contínuo, em que as pessoas são recompensadas por aprender e experimentar. Para construir uma organização que aprende, é necessário um novo modelo de liderança, que valorize a participação e a colaboração. As organizações que aprendem não se limitam a se adaptar às mudanças, mas buscam criar oportunidades de crescimento e expansão.

No caso da SEGER, a tomada de decisões baseada em dados leva a um aumento na eficiência operacional, melhora a satisfação do cidadão, e cria uma vantagem competitiva para nós no cenário público. Quando aplicada à inovação, a análise de dados pode ajudar a descobrir novas oportunidades que sejam benéficas para os cidadãos, antecipar tendências futuras e estimular a inovação contínua. Essa abordagem data-driven, pode transformar a maneira como a SEGER serve as pessoas, nos tornando mais responsivo, proativo e alinhado às necessidades e expectativas dos cidadãos.

Lidando com outliers nas medições de lead time

Correlação Pontos de História e Lead Time!

Aprenda a função join de uma vez por todas!

Estava dando aula recentemente e um dos meus alunos ficou na dúvida para fazer a junção de dois datasets. A teoria ajuda a explicar, mas a prática é fundamental nestes casos. Decidi então compartilhar esse material, que imagino ser extremamente didático para poder explicar estas funções. Vou deixar os dois datasets que usei para que vocês possam fazer o download e aprender de uma vez por todas.

É difícil encontrarmos uma análise de dados que seja feita apenas com uma tabela. Na prática você tem muitas delas e precisa combiná-las para responder as perguntas do negócios. Coletivamente, várias tabelas de dados são chamadas de dados relacionais, porque são as relações, não apenas os conjuntos de dados individuais, que são importantes.

Cumpre ressaltar aqui que relações são sempre feitas em par. Relações de três ou mais tabelas são sempre um propriedade das relações de cada par. O pacote dplyr oferece várias funções de junção (xxx_join ()) que fornecem maneiras alternativas de juntar frames de dados:

  • inner_join()
  • left_join()
  • right_join()
  • full_join()

Para que o texto alcance seus objetivos didáticos, vamos utilizar dois datasets: titulos.csv e estado.csv

titulos.csv

estado.csv

Vejam que nós temos a mesma variável “time” nos dois datasets. Essa será a variável usada para fazermos a conexão. Ela é uma chave! Nós precisamos de um elo, alguma coisa que ligue os dois bancos. Algo que seja comum entre os dois. Caso isso não exista, não conseguiremos fazer a junção. Note ainda que no dataset “titulos” existe a observação Vitória-BA que não consta no dataset “estado” e perceba também que no dataset “estado” nos temos a observação Botafogo que não consta no dataset “titulos”. Não me interprete mal, não foi minha intenção dizer que o Botafogo não possui títulos. Este é apenas um exemplo ;).

Bom, vamos ao que interessa!

Inner Join – esta função vai manter no dataset mesclado as observações que estão presentes nos dois datasets.

Explicando de uma outra forma: a tabela final conterá apenas as linhas que estiverem presentes nos dois datasets. No nosso exemplo, os times que não aparecem nas duas tabelas serão descartados. Logo Vitória-BA e Botafogo que estão em um deles e não nos dois, serão descartados.

Vou antes de apresentar a tabela, remover a variável “id” do dataset “titulos”, pois neste exemplo não é importante:

titulos <- select(titulos,  everything(), -id)

Agora sim o inner_join:

base_inner_join <- inner_join(titulos, estado, by = "time")

Explicando a linha acima, temos a criação de um novo dataset chamado “base_inner_join” onde utilizamos a função inner_join(), os dois datasets X = titulos e Y = estado, mesclados pela chave “time”. Lembre-se, precisamos desta chave para mesclar as duas tabelas. Veja o resultado:

Como mencionado não temos as observações Vitória-BA e Botafogo. Não a chaves para o relacionamento destes dois times.

Left join – de forma resumida, esta função mantém todas as observações em X. Logo, no nosso exemplo o dataset X = titulos permanecerá com todas as suas linhas, incluindo o Vitória-BA. Note que não temos Vitória-BA no dataset “estado”, entretanto o left_join mantém todas as observações de X. Neste caso o Botafogo ficará de fora, pois não temos correspondência no dataset “titulos”.

Note que o Vitória-BA apresenta um valor faltante na coluna estado. Se você observar o dataset “estado” vai confirmar que de fato não existe tal valor, entretanto a observação estava presente em X e, portanto, será preservada.

Right join – esta função, de forma resumida manterá todas as observações presentes em Y. Se no left join a observação Botafogo ficou de fora, permanecendo o Vitória-BA, o right_join fará o contrário. Manterá todas as observações de Y e fará a correspondência com X. Logo, Botafogo permanecerá e Vitória-BA ficará de fora:

base_right_join <- right_join(titulos, estado, by = "time")

O comportamento do inner_join, left_join e right_join é justamente retornar apenas as linhas em que as chaves coincidiram (efeito de filtro).

Bom, mas existem situações em seja necessário preservar todos os registros em ambos os conjuntos de dados, o que podemos fazer facilmente com o full_join. Nenhum dos conjuntos de dados perderá registros no resultado final, isto é, quando as chaves forem iguais, todos os campos estarão preenchidos. Quando não houver ocorrência das chaves em ambos os lados, será informado NA em qualquer um deles.

base_full_join <- full_join(titulos, estado, by = "time")

Não perdemos nenhum registro. Vitória-BA e Botafogo que eram  excludentes, estão presentes no resultado.

E aqui neste final você pode estar se perguntando. Qual eu devo usar?

Isso vai depender da sua necessidade. O importante é que você entenda e saiba usar as funções. Compreender como cada uma faz a junção das tabelas. Outro ponto importante é tratar os missing values. Nosso nosso exemplo em uma rápida pesquisa pela internet você descobre que:

Vitória-BA – estado: Bahia

base_full_join[which(base_full_join$time == "Vitória-BA"), 4] <- "Bahia"

Botafogo – brasileiro = 2

base_full_join[which(base_full_join$time == "Botafogo"), 2] <- 2

Botafogo – regional = 21

base_full_join[which(base_full_join$time == "Botafogo"), 3] <- 21

Segue então o final do nosso exercício:

Espero ter sido claro nesta explicação. Baixem os datasets e repitam os comandos! Vocês verão que é bem simples.

Base utilizada:

Dataset titulos.csv
Dataset estado.csv

Referências:

BOEHMKE, Bradley C.. Data Wrangling with R. Switzerland: Springer, 2016. (Use R!).

OLIVEIRA, Pauo Felipe de; GUERRA, Saulo; MCDONNELL, Robert. Ciência de dados com R: introdução. Brasília: Ibpad, 2018. 240 p.

WICKHAN, Hadley; GROLEMUND, Garrett. R para Data Science: importe, arrume, transforme, visualize e modele dados. Rio de Janeiro: Alta Books, 2019. Traduzido por Samantha Batista.

Combinando o Mapa (Deck de Cartas) com Estruturas Libertadoras

Recebi no mês passado o Mapa  desenvolvido pelo Espírito Criativo! Um deck com 42 cartas divididas em 4 blocos distintos para auxiliar pessoas e organizações a navegarem no mar da inovação.

Se você acha que inovar é caro, não inovar é mais caro ainda. As mudanças estão acontecendo e não acompanhá-las ou mesmo se não antecipar a elas pode ser determinante para o seu sucesso ou fracasso.

No dia em que recebi as cartas, era o último dia do Treinamento de Design Thinking que estava conduzindo de forma presencial e por este motivo não tive tempo hábil para pensar em dinâmicas com o Mapa. Usei apenas algumas perguntas para questionar os protótipos que meus alunos estavam criando.

Na próxima semana terei a oportunidade de utilizar de fato as cartas e claro, retorno aqui para contar para vocês como foi a experiência. Minha ideia foi combinar o deck de cartas com as Estruturas Libertadoras.

Estruturas Libertadoras em conjunto com o uso das cartas podem levar as pessoas a encontrar e a questionar de forma efetiva as soluções encontradas. Uma das melhores formas de libertar o potencial de uma equipe é fazer as perguntas certas para melhorar o aprendizado e explorar diferentes perspectivas.

Neste sentido o Mapa contempla 4 áreas que as equipes que estão em busca de desenvolver novos produtos necessita:

Criação: as perguntas buscam explorar formas de como materializar o que idealizamos. Um dos desafios mais comuns das organizações na hora de inovar é tirar a ideia do papel. Geramos muitas ideias, mas realizamos pouco. Neste bloco encontramos perguntas como essas:

Por que devo fazer assim?

Quem fez isso antes? E se eu for além?

E se tudo mudar de repente?

Imaginação: Neste bloco está a busca pelo conhecimento. Busca explorar o que sabemos e principalmente o que não sabemos. Explorar o problema e investir em uma etapa de sensemaking é essencial para se buscar a iniciativa certa. Ouvir diferentes perspectivas é uma chave para entender o problema de diferentes maneiras. Neste sentido, temos perguntas como:

Onde estão minhas referências?

O que carrego comigo?

O que eu posso ensinar?

Conexão: Buscamos entender aqui como nos conectamos com os desafios que o mundo apresenta. Saímos de um plano mais técnico para explorar os modelos mentais. O Pensamento Sistêmico ensina que precisamos trazer à tona nossos modelos e crenças para entendê-los e fazermos as modificações necessárias. Nenhum modelo mental é certo, inclusive este. Aqui vamos encontrar perguntas como:

Quem se conecta com essa ideia?

E se eu me abrir para os outros?

Por que isso me encanta?

Inovação: recebemos por meio das perguntas um convite para seguirmos em frente. A ideia aqui é a interação. Precisamos encontrar formas para encontrar o próximo passo e atender as necessidades das pessoas. Vamos encontrar aqui perguntas como essas:

O que falta aqui?

E se eu estiver errado?

E se eu olhar em outra direção?

Para combinar este deck de cartas com as Estruturas Libertadoras, basicamente podemos selecionar uma pergunta e pedir que as equipes respondam em conjunto. Temos inúmeras possibilidades. Você pode levar de 5 a 50 minutos para responder a uma pergunta. Isso depende do nível de profundidade que quer atingir e aonde você precisa chegar.

Estrutura: 1-2-4-Todos

Essa estrutura é a que eu mais uso. Ela incentiva a participação de todos. Desde aqueles que falam muito, até os menos comunicativos. O ideal é que todos sejam ouvidos na hora de responder as perguntas.

Como fazer:

Espaço e Materiais:

Mesas e cadeiras opcionais

Papel para participantes tomarem notas

Sequência de Passos:

Antes, selecione a pergunta no bloco de acordo com a sua necessidade.

l min. Reflexão individual silenciosa

2 min. Gere ideias em uma dupla, criando sobre as ideias da auto-reflexão.

4 min. Em quartetos, compartilhe e desenvolva ideia a partir da conversa em sua dupla. Convide a perceber similaridades e diferenças.

5 min. Pergunte, “Qual foi a ideia que se destacou em sua conversa?” Cada grupo compartilha uma ideia importante com todos (repita o ciclo caso necessário)

Desenvolva as ideias a partir dos insights encontrados.

Algumas dicas para a 1-2-4-Todos:

  • Seja preciso com os tempos e faça outra rodada se necessário;
  • Em maiores, durante o “Todos”, limite o número de ideias compartilhadas para três ou quatro
  • Convide cada grupo a compartilhar um insight, mas não repetir insights já compartilhados
  • Adie julgamentos; apresenta as ideias de forma visual; saia da caixa!
  • Faça uma segunda rodada se você não aprofundou o suficiente!

Estrutura: Wise Crowds

Essa estrutura existe para explorar a sabedoria de grandes grupos. Ele cria um espaço onde as pessoas podem obter ajuda em um desafio persistente e trabalhar com outras pessoas para desenvolver e praticar comportamentos que ajudam a superar outros desafios.

Como fazer:

Espaço e Materiais

Grupos de 4 a 5 cadeiras, mesas opcionais

Papel para anotações dos participantes

Sequência de Passos:

Convide participantes a escolher uma pergunta e a pedir ajuda, conselhos e recomendações aos demais, que atuarão como um grupo de “consultores”.

Cada pessoa que solicita uma consulta (o cliente) terá quinze minutos da seguinte forma:

2 min. Cliente apresenta o desafio e solicita ajuda

3 min. Consultores fazem perguntas de esclarecimento

8 min. Cliente se vira de costas para os consultores e se prepara para tomar notas

Consultores se fazem perguntas, oferecem conselhos e recomendações, trabalhos em equipe

2 min. Cliente se vira de volta para o grupo e oferece feedback aos consultores: o que lhe foi útil e o que leva da consulta realizada.

Algumas dicas para a Wise Crowds

  • Convide um grupo diverso para explorar a questão
  • Relembre sempre aos participantes para tentar permanecerem na direção da experiência dos clientes.
  • Aconselhe os consultores e se permitirem correr riscos
  • Convide os participantes a não evitarem desafios complexos que não têm respostas fáceis
  • Você pode usar ainda a Estrutura 15% Solution para traçar um plano de ação.

Conclusão

Não utilizei ainda os Cards combinados com as Estruturas, mas já utilizei as Estruturas dezenas de vezes. São muitos resultados e insights que são gerados. Organize tudo e compartilhe com as demais pessoas da organização e principalmente com os Stakeholders. Evite criar expectativas e trabalhe sempre com equilíbrio.

Até a próxima!

Bom atendimento parcial, não garante sucesso no final

Recentemente fiz uma viagem com família para Foz do Iguaçu. De Vitória para Foz do Iguaçu não existem voos diretos e por este motivo fizemos uma escala em São Paulo.

O valor esperado por mim cliente, neste caso foi prestado por várias empresas, sendo que cada empresa se preocupou apenas com a suas necessidades. Quando temos a soma destas necessidades, em geral não temos um bom resultado. Um empresa não se comunica com a outra. Do ponto de vista sistêmico, há uma total desconexão.

Durante minha viagem tive que me relacionar com pelo menos 10 empresas, dentre elas: agência de viagem que me vendeu as passagens, a companhia aérea, serviço de transporte para nos levar até ao aeroporto, pessoal de terra dos aeroportos (independente das companhia aéreas), autoridades de tráfego aéreo, Receita Federal em Foz do Iguaçu e o hotel onde fiz a reserva. O processo foi basicamente assim:

1 – Ligação e compra das passagens na agência de turismo
2 – Ida a agência para buscar os tickets
3 – Chamar por aplicativo o transporte que nos levaria ao aeroporto
4 – Espera pelo veículo
5 – Carregar bagagem no porta malas do carro (6:00 da manhã)
6 – Ida ao aeroporto (20 minutos)
7 – Descarregar a bagagem do carro
8 – Fila para despachar
9 – Fila para embarque (período de férias, o movimento sempre aumenta)
10 – Fila da segurança do aeroporto
11 – Espera e fila para o embarque
12 – Espera no avião para decolagem
13 – Voo para São Paulo (1:15 minutos)
14 – Em São Paulo – espera e fila para novo embarque
15 – Espera no avião para decolagem
16 – Voo para Foz do Iguaçu (1:20 minutos)
17 – Em Foz – espera para pegar bagagem
18 – Espera pelo transfer contratado que nos levou ao hotel
19 – Carregar bagagem no porta malas do carro
20 – Transfer até o hotel (30 minutos)
21 – Descarregar a bagagem do carro e carregar no hotel
22 – Fila para registro no hotel as 15:00

Resumo:

Tempo Total de viagem: 9:00
Tempo necessário para ir de um lugar a outro: 3:25 (38,8% do tempo total)
Tempo gasto em filas e tempo de espera: 5:35
Número de filas: 6
Número de vezes que a bagagem foi carregada e descarregada: 8
Total de etapas do processo: 22

Cada empresa nos atendeu de forma satisfatória, entretanto estavam fornecendo um produto parcial. Eis aí um relato de baixa eficiência operacional. Ao mapear uma experiência como essa, teríamos muitos momentos de decepção. Passamos por isto na ida, e todo o processo se repetiu na volta, com exceção de um atraso significativo no tempo da viagem que na ida foi de 8 horas, na volta levamos 12, devido a condições climáticas.

Sobre este texto, algumas perguntas para reflexão:

  • Por que não despacho de bagagem, embarque e segurança com a mesma pessoa?
  • Por que dividem as pessoas em grupos para embarque se poucas respeitam a ordem?
  • Por que esperar para entregar a bagagem, eu não poderia simplesmente entregar em uma área segura e seguir para o embarque? ou Por que a bagagem não pode sair do carro e ir direto para dentro do avião, sem que o cliente tenha que descarregar e carregar novamente?

Quase teríamos tempo para ir voltar só com o tempo que passamos na fila. Qual a saída para inverter esse cenário?

Adaptado livro: A mentalidade enxuta nas empresas. Relato real do autor!

Aplicações práticas na estrutura de um Planejamento Estratégico – Parte II

Sensemaking

O termo Sensemaking foi cunhado por Karl Weick no livro Sensemaking in Organizations publicado em 1995. No livro, Weick diz logo no início que o livro não se tratava de um corpo de conhecimento, mas sim de um tema, uma conversa em andamento. Podemos concluir que o sensemaking está em constante evolução em seus conceitos.

Weick começa relatando a Síndrome da Criança Agredida, e afirma que este acontecimento é o sensemaking testado ao extremo. Ocorre quando as pessoas encontram um fato que é tão implausível que tem medo de reportar com receio de que se não acredite. O pensamento é: “isso não pode ser verdade”, ou “não acredito que isso realmente ocorreu” e portanto concluem que de fato não aconteceu.

A Síndrome da Criança Agredida consiste em padrões de ferimentos, usualmente na cabeça, braços, pernas e costelas em crianças, sendo que a história contada pelos pais em relação as lesões não são suficientes para explicar. Essas lesões só podem ser vistas por raios-X e por esse motivo os pais não relatam, não entendem a gravidade ou fingem ser um acidente. Isso explica o fato da medicina ter demorado para reconhecer este padrão.

Tá, mas o que isso tem a ver com sensemaking? Primeiro que as histórias dos pais e dos radiologistas não batem, não fazem sentido. São pistas discrepantes, algo que não se encaixa. O padrão das lesões e a própria síndrome demora a ser descoberta, pois os radiologistas mantêm contato social pouco frequente com pediatras e famílias de crianças. Nestes casos a lentidão da construção de uma inteligência social passiva é ocasionada pelos fatos ocultos e não relatados.

No contexto organizacional, a desconexão entre as equipes que tratam as crianças, médicos, assistentes sociais, pais e órgãos de proteção as crianças além do fato de que as lesões não serem visíveis ao olho humano, levam a demora do diagnóstico. Os resultados de raio-x são interpretados, mas não aponta para as agressões, ou seja, os dados são gerados, mas são dados sem significado.

Definição de Sensemaking

A tradução literal da palavra é fazer sentido. A intenção é estruturar o desconhecido. Seria basicamente usar estratégias para a aquisição, produção, síntese, manipulação e difusão de informações de maneira a dar significado, finalidade e direção à organização. O sensemaking precisa levar a ação.

Meryl Louis no livro vê o sensemaking como um processo de pensamento que usa relatos retrospectivos para explicar surpresas. 

O ciclo inicia quando os indivíduos formam antecipações e suposições, inconscientes e conscientes, que servem como previsões sobre eventos futuros. Subsequentemente, os indivíduos experienciam eventos que podem ser discrepantes em relação às suas previsões.

Gioia descreve como uma interação recíproca de busca de informação, a indicação de significado e a ação. 

Sakcman fala sobre mecanismos de criação de sentido que os membros da organização usam para atribuir significado a eventos, mecanismos que “incluem os padrões e regras para perceber, interpretar, acreditar e agir que normalmente são usados em um determinado cenário cultural.

Feldman fala sobre a criação de sentido como um processo interpretativo necessário para que os membros da organização compreendam e compartilhem entendimentos sobre tais características da organização como o que ela trata, o que faz bem e mal, quais são os problemas que enfrentam e como deve resolvê-los.

Para iniciar  um ciclo de sensemaking precisamos de dados. Dados as mais variadas fontes. Estes dados por si só vão dizer alguma coisa, mas estarão sem sentido. Os dados precisam ser combinados e colocados em uma linguagem compreensível ara evitar a ambiguidade. Seria organizar algo como organizar, informação e trazê-la para um campo mais simples, mais útil e que estimule a tomada de decisão.

Essa analise deve ser feita de forma sistêmica. Estamos buscando fazer sentido para a organização, e não para este ou aquele departamento. Não podemos levar 25 anos para identificar padrões e fazer as conexões como na Síndrome da Criança Agredida. Dados são essenciais, mas só o sensemaking consegue ir a fundo. Sair da complexidade dos dados, para a simplicidade dos fatos. 

Na prática, os problemas não são apresentados como dados aos gerentes. Sem sensemaking podemos superestimar uma situação e atribuir certo grau de complexidade que não existe. Importante frisar que Sensemaking consiste claramente de uma atividade ou um processo, ao passo que interpretação pode ser um processo, mas é mais provável que descreva um produto. É comum ouvir que alguém fez “uma interpretação”. Mas raramente ouvimos que alguém fez “um sensemaking”. Um foco em sensemaking induz a mente a focar no processo, ao passo que isso é menos verdadeiro com a interpretação.

O ato de interpretar implica que algo está lá, um texto no mundo, esperando para ser descoberto ou aproximado. Entretanto, sensemaking consiste menos em descoberta do que em invenção. Sensemaking é construir, filtrar, estruturar, criar e compor aquilo que é subjetivo em alguma coisa mais tangível.

O John Maeda no As Leis da Simpliciade, livro que recomendo a leitura coloca que SIMPLICIDADE = SANIDADE. O John tem uma missão pessoal que também é o foco da sua pequisa: atingir a simplicidade na era digital. Em 2004 ele deu início ao MIT Simplicity Consortium cuja missão é definir o valor da simplicidade nas comunicações, na assistência médica e nos jogos.

Nas organizações, entender e reduzir a complexidade torna-se essencial. Não confrontamos algo complexo com mais complexidade. Precisamos separar o joio do trigo, simplicidade e complexidade necessitam uma da outra.

Processo 

No livro  The Customer-Driven Playbook escrito por Jessica Rich, Travis Lowdermilk eles descrevem um processo que utilizam para traçar estratégias para produtos. A definição deles para sensemaking é: um processo que garante que organizemos os dados que coletamos, identificando padrões e insights significativos, que depois são refinados em uma história que leva outros a ação.

O loop foi inicialmente apresentado em um artigo escrito por Peter Pirolli e Stuart Card, chamado The Sensemaking Process and Leverage Points for Analyst Technology as Identified Through Cognitive Task Analysis. No artigo, assim como no livro a sequência de passos é:

Fonte dos dados: sãos as diversas fontes de dados que você coleta que ajudam você a validar uma hipótese. Estatísticas de uso, fóruns de discussão, tickets de suporte e sistemas de gerenciamento de relacionamento com clientes (CRM) são ótimas fontes de dados.

Caixa de sapatos: aqui os autores fazem uma analogia com as caixas de sapatos usadas na época para organizar fotos, antes das fotos na nuvem e da fotografia digital. Existem muitas “caixas de sapatos” colaborativas online para armazenar esses tipos de coisas. Microsoft SharePoint, OneNote, Evernote, e Google Drive. São ferramentas que nos permite organizar as informações.

Pasta do arquivo: Novamente uma analogia. Quando você está em uma jornada de desenvolvimento de clientes ou produtos, está realizando uma investigação. Seu arquivo de evidência é como um arquivo de caso. Este arquivo pode conter fotos, frases ou qualquer outra coisa que ajude você a validar uma hipótese. Você precisa separar aqui as informações relevantes.

Tags: Nesta etapa você atribui categorias e padrões aos dados. Começa a dar significado. Essas tags ajudarão você a ver padrões em seus dados e a tirar conclusões. É a curadoria das informações. Gestão do conhecimento.

Histórias: A coisa mais importante sobre a criação de sentido é que ela ajuda a compartilhar significado, não dados. Os dados são importantes, mas emoção e empatia são o que compelem os outros a agir. O uso de analogias e metáforas são ferramentas que podem nos ajudar a transmitir ideias complexas as pessoas. 

Geralmente nas entrevistas vamos em três pessoas. Um para fazer as perguntas e conduzir o processo. O outro para complementar as perguntas e identificar padrões na fala e um terceiro para tomar as notas. Utilizamos o Trello para separar os cartões em colunas e atribuir os tags as informações. Utilizamos o ciclo conforme descrito acima, e no próximo post vou detalhar um pouco mais sobre sensemaking antes de entrar no Metamodelo de Linguagem. Sobre um autor que gosto muito, o Christian Madsbjerg.

Aplicações práticas na estrutura de um Planejamento Estratégico – Parte I

Recentemente iniciei mais um trabalho para a elaboração do planejamento estratégico em uma organização pública. A teoria que ensinamos em sala de aula nem sempre está de acordo com a realidade que encontramos nas organizações. Na prática existe um gap, que só vamos aprender fazendo. Nesse ponto muitos alunos me perguntam como começar, como reunir e organizar a informação necessária para um trabalho de planejamento.

Em um trabalho de planejamento estratégico a coleta de dados já estruturados e as informações que estão contidas nas pessoas são fundamentais para entendermos o contexto, a situação atual e fazermos um ponte ao futuro de onde queremos chegar. Existem várias formas de se coletar dados estruturados, já compilados. Vamos organizar e extrair as informações úteis para auxiliar no trabalho. O desafio está em coletar os dados que estão com as pessoas, extrair essa informação, que na maioria dos casos é mais valiosa, leva tempo e dedicação. 

Damos o nome a essa primeira etapa de reuniões de diagnóstico. Aqui estamos buscando pela estrutura, descobrindo o terreno. São reuniões de sensemaking para gerar conhecimento e constatar que o mapa não é o território. O que eu vou detalhar nesta série de artigos é a ferramenta que utilizo para conduzir essas reuniões. Eu explico brevemente em sala sobre a PNL e o Metamodelo de Linguagem, mas nem sempre conseguimos esgotar o assunto. A necessidade dos artigos surgiu do interesse dos alunos, em conhecer mais sobre o tema.

O objetivo dessa série de artigos é apresentar as origens do Metamodelo de Linguagem e as bases que o fundaram, contidas na Gramática Transformacional de Noam Chomsky. A ideia inicial de Richard Bandler e John Grinder, criadores a PNL, era desenvolver um instrumental teórico para auxiliar psicólogos e terapeutas em sua difícil missão de ajudar pessoas a solucionarem seus traumas e limitações.

Está fora do meu escopo detalhar Programação Neurolinguística e Sensemaking, entretanto sem conhecermos as origens, não vamos conseguir dar significado ao que estamos fazendo. Vamos então a uma breve descrição, a alguns conceitos sobre as duas disciplinas e então teremos mais detalhes sobre o Metamodelo de Linguagem. Antes de mais nada, quero deixar claro que não concordo com tudo na PNL, aliais não concordo com quase nada, entretanto o Metamodelo de Linguagem tem sido útil nas conversas e no garimpo de informações importantes em relação as organizações.

Programação Neurolinguística

No início da década de 70 as transformações e o imediatismo começavam a ganhar força. A demanda por mudanças mais rápidas, principalmente nas questões de educação e aprendizado acelerado surgiram nessa época. O aprendizado de idiomas, técnicas de memorização, mapas mentais e neste contexto o método da modelagem, que mais tarde vem a ser chamado de Programação Neurolinguística.

A Programação Neurolinguística começou a ser estruturada no início da década de 70 por dois americanos trabalhando em conjunto. Richard Bandler  estudante de psicologia – e John Grinder professor assistente de linguística, ambos da Universidade da Califórnia em Santa Cruz.

Bandler e Grinder modelaram, ou seja, pesquisaram e descobriram padrões de pessoas que desempenhavam com excelência a tarefa de ajudar pessoas, e puderam a partir disso disseminar este conhecimento. Eles inicialmente modelaram as formas e métodos de trabalho de Fritz Perls (Gestalt Terapia), Milton Ericksson (Hipnoterapeuta) e Vírginia Satir (Terapeuta Familiar). Com base nas observações e padrões na fala, deu-se origem o Metamodelo de Linguagem.

O objeto de trabalho de metamodelo é o modelo de mundo empobrecido que comunicamos em um primeiro momento. Idealizado a partir dos conceitos dos níveis de linguagem proposto com Noam Chomsky na Gramática Transformacional, o Metamodelo visa expor a estrutura profunda por meio de perguntas e desafios.

A PNL atribui a responsabilidade da fala ao emissor e afirma que nenhum mapa de mundo é igual ao outro. Uma mesma experiência é interpretada e reproduzida de forma diferente por cada ser humano. A partir disso, ela conclui que o ato de falar omite, generaliza e distorce os fatos e aprendizado. O processo de criação do nosso modelo de mundo não reproduz a realidade em si, criamos de acordo com as nossas particularidades.

Definir PNL não é uma tarefa das mais simples. O livro A Estrutura da Magia: um livro sobre linguagem e terapia (1975) que deu origem ao Metamodelo e que posteriormente vem a ser englobado pela Programação Neurolinguística não tem uma definição clara. No livro eles apenas detalham o conceito de modelagem:

Um instrumental específico de modo que se possa começar ou continuar o interminável processo de melhorar, enriquecer e ampliar as habilidades que oferece como aquele que auxilia pessoas.

No livro Usando sua mente: as coisas que você não sabe que não sabe (1987) escrito somente por Richard Bandler, ele diz que:

A PNL simboliza entre outras coisas uma maneira de se examinar o aprendizado humano. Acho mais apropriado descrevê-la como sendo um processo educacional. Estamos, essencialmente desenvolvendo formas de ensinar as pessoas a usarem seu cérebro.

Ao trazermos os comportamentos indesejados para o nível consciente, podemos definir ações para intervir e modificar.

Pressupostos

A PNL é sustentada por pressupostos. No livro Manual da Programação Neurolinguística: um guia prático para alcançar os resultados que você quer (2003) escrito por Joseph O´Connor ele estabelece 13 pressupostos: 

  1. As pessoas respondem a sua experiência, não a realidade em si
  2. Ter uma escolha ou opção é melhor do que não ter uma escolha ou opção
  3. As pessoas fazem a melhor escolha que podemo no momento
  4. As pessoas funcionam perfeitamente
  5. Todas as ações têm um propósito
  6. Todo comportamento possui intenção positiva
  7. A mente inconsciente contrabalança a consciente; ela não é maliciosa
  8. O significado da comunicação não é simplesmente aquilo que você pretende, mas também a resposta que obtém
  9. Já temos todos os recursos de que necessitamos ou então podemos criá-los
  10. Mente e corpo formam um sistema. São expressões diferentes da mesma pessoa.
  11. Processamos todas as informações através de nossos sentidos
  12. Modelar desempenho bem-sucedido leva a excelência
  13. Se quiser compreender, aja

De uma forma mais detalhada, no livro A Estratégia da Genialidade (1998), escrito por Robert Dilts (pra mim um dos melhores livros sobre o tema), os pressupostos aparecem da seguinte forma:

  1. a) O mapa não é o território
  2. b) A vida e a “mente” são processos sistêmicos

O Mapa não é o território

As pessoas reagem às suas próprias percepções de realidade. Cada um tem seu mapa de mundo sendo que nenhum deles é mais “verdadeiro” ou “real” do que qualquer outro. Os mapas mais sábios são aqueles que vão permitir um número mais amplo de escolhas, ao contrário de tentar impor o seu próprio mapa ou suas convicções.

Mesma coisa acontece nas organizações quando nos deparamos com algum tipo de problema. Quanto mais opções temos para solucionar os problemas que aparecem, melhor. Formar profissionais tipo T também ajuda na diversificação das soluções. Quanto mais complexo for o seu ambiente, mais ideias você precisará ter e nada melhor do que a colaboração e a diversidade para ter ideias.

Neste caso fazemos as melhores escolhas disponíveis no momento, mas estamos limitados a quão amplo é o nosso modelo. As mudanças ocorrem a partir dos recursos adequados ou da ativação do recursos potencial para um contexto específico. 

A vida e a “mente” são processos sistêmicos

Os processos que ocorrem dentro da pessoa, ou entre pessoas e ou seu ambiente são sistêmicos. Estamos inseridos em sistemas que se influenciam mutuamente. Não é possível isolar completamente uma parte do sistema. As interações entre elas formam ciclos contínuos de feedback de tal forma que a pessoa será afetada pelos resultados que as próprias ações tem nas outras pessoas.

Os sistemas são auto-organizados e naturalmente procuram estados de equilíbrio e estabilidade. Não existem falhas, apenas feddback. Os ambientes e contexto mudem. Nem sempre a mesma ação produzirá o mesmo resultado. Isso é importante porque a interpretação é de cada um. Não reagimos a realidade em si, o que obtemos é a interpretação a partir do nosso modelo de mundo. Para se adaptar e sobreviver de maneira bem sucedida, precisamos de flexibilidade. À medida que o sistema se torna mais complexo, mais flexibilidade precisamos.

Richard Bandler diz que a PNL é uma forma de criar novas maneiras de entender como a comunicação verbal e não verbal afetam o cérebro humano. Desta forma ela se apresenta como uma oportunidade invulgar, não só de comunicarmo-nos melhor com nós mesmos e com os outros, mas também, de aprender como obter maior controle sobre o que nós consideramos funções automáticas da nossa própria neurologia.

Nos próximos artigos vamos detalhar Sensemaking e o Metamodelo de Linguagem.